Skip to main content

M2ts - MKV

1.Import the m2ts to tsMuxer and use the demux function to split the file to separate video and audio raw streams.

2.Use MKVmergeGUI (included in mkvtoolnix) to mux the separate video and audio streams together to an MKV.

Comments

Popular posts from this blog

Monitor in tempo reale - Prometheus ed altri oggetti.

Prometheus - Monitoring Tool - Centos7 Installazione di Prometheus Alertmonitor Grafana Node-exporter con docker come servizio e cartelle montate localmente per mantenere le configurazioni ed i dati dei servizi. La configurazione comprende anche l'uso di Telegram per le notifiche Azioni Prerequisiti (Docker Docker-Composer) Installazione immagini (Docker Pull) Configurazione avvio immagini Configurazione servizi Configurazione avvio servizi Test (configurazione ed architettura) Prerequisiti docker docker-compose Riferimenti installazione e configurazione di sistema https://www.digitalocean.com/community/tutorials/how-to-install-prometheus-using-docker-on-centos-7 http://www.tutorialspoint.com/articles/how-to-install-and-configure-prometheus-using-docker-on-centos-7 https://www.shellhacks.com/prometheus-monitoring-install-docker-ubuntu-centos/ regole di alert e queryper Prometheus https://awesome-prometheus-alerts.grep.to/rules.html https://www.fabernov...

Word2vec - Sentiment Analysis

Word2vec è un modello (evoluzione Doc2vec) https://sourcedexter.com/tensorflow-text-classification/ https://github.com/tflearn/tflearn Vector space models   (VSMs) represent (embed) words in a continuous vector space where semantically similar words are mapped to nearby points ('are embedded nearby each other') Word2vec is a particularly computationally-efficient predictive model for learning word embeddings from raw text. It comes in two flavors, the Continuous Bag-of-Words model (CBOW) and the Skip-Gram model (Section 3.1 and 3.2 in   Mikolov et al. ) Skip Gram Model http://mccormickml.com/2016/04/19/word2vec-tutorial-the-skip-gram-model/ Bag-Of-Words Model https://ongspxm.github.io/blog/2014/12/bag-of-words-natural-language-processing/ Il modello è semplice perchè usa un trucco del auto-encoder l'output layer fa deve ritornare la stessa cosa dell'input (apprendimento supervisionato anche se non si hanno le label) poi si rimuove il livello di output e si ottengono i p...
Pastorella di Natale fatta con rotolo di carta igienica pallina da ping pony per il presepe dell'asilo.