0:00:07_e pánové
0:00:08značně prořídly tady venku jsou to bylo takže díky všem kteří se nezastavili do dobré
0:00:14nějaká organizace _e tento týden teďka nevím jestli se má mnoho čtvrtek no pátek v
0:00:19noci je odevzdání projektů jedničky
0:00:22_e příští týden se bijou
0:00:25děvčata takže přednáška není
0:00:28za dva týdny mám poslední přednášku proteosyntéze pokusil jsem se dost sem dostat _e tetra
0:00:34horáka troše syntezačních budu český ale bohužel má nějakou akci kde musí být
0:00:40takže _e to zvládneme vlastními silami a buď starýho syntéze bude vykládat igor szoke
0:00:46který se docela syntéze omočil
0:00:49a nebo _e nebo já
0:00:53_m prosím vás poté poslední přednášce
0:00:56bude následovat cirka hodinového dvouhodinové numerické cvičení které plánované programu tady tohodle kurzu ahoj zdeňku
0:01:05takže nevím jestli _e tady tuším probíhá nějaká matematika možná že se budu muset přesunout
0:01:11vedle
0:01:12ale počítejte s tím že pouze poslední přednášce budeme mít jakou noční se vším
0:01:16jo že se ještě uděláme nějaké příkládky na L P C
0:01:20zde do to byl
0:01:22arménka
0:01:24pokusím se to dostatek o do doby kratší než dvě hodiny ale vono je tam
0:01:28toho zase hodně a ty příkládky chci abys vám prošli rukama takže prosím příprava je
0:01:34tady se do sebe papír tužku a možná kalkulačku a tečna hodnot počítat hlavy
0:01:40tak _e
0:01:43toto bylo
0:01:45organizaci vaše k těm velikonoc i mě napadlo že pokud máte v týmu nějaké lidi
0:01:49v zahraničí a vzletem vysvětlovat že příští týden vidí lidi jak na ulici dvě holky
0:01:54a vodpoledne sou všichni strašně vožraný tak máme vlastně v našem týmu teďka jednoho
0:01:59lukáš který je svírá nula druhých tries indie možná že tady nebo jako potkáváte po
0:02:03fakultě tak těmi upřímně zděšení text nemuseli dlouho vysvětlovat li budete příští pondělí
0:02:10tak _e
0:02:12poďme _e zpátky prosím vás gamem kam
0:02:15minule jsme si _e říkali že se pokusíme natrénovat nějaké parametry modelu
0:02:23a že vlastně _e taková základní záležitost k natrénování parametrů modelu
0:02:31bude jakási pravděpodobnost
0:02:34že jsme
0:02:36vod začátku času čas probíhá takhle
0:02:40stavy modelu sou prostě nějaké a že sme od začátku modelu někde
0:02:47to znamená že si to cesta může probíhat celkem kde chce
0:02:51_e
0:02:52čase ste se nacházím ve stavu je toho modelu
0:02:57a potom sem zase někde jinde
0:03:01kdekoli
0:03:02jo a řekli sme si že _e vlastně budeme chtít vypočítat pravděpodobnost
0:03:07že se s _e které
0:03:11jsou tady někde
0:03:13teďka ovšem probíhají v tomto čase tady tímhle tím stavem a pak se nám zase
0:03:17rozběhne a pak sem _e pak sem někde jinde já nebudeme chtít vypočítat tady tuhletu
0:03:22pravděpodobnost která bude děsně důležitá
0:03:25protože tady touto pravděpodobností potom budeme váhou what
0:03:31ten vstupní vektor který se nachází v tomto čase a bude vlastně váhovací jeho příspěvek
0:03:37ke trénování jednotlivým stavům jo to že prostě máme nějakou hodnotu
0:03:42a teďka zkusit finta nula celá devadesát devět i rozhodíme tomuhle stavu a nula celá
0:03:46nula jedna tomu druhýmu stavu a tím ostatní dostanu ale s každým případě to prostě
0:03:52bude vektor váhovací _e srovnávací sme si ty
0:03:56tak _e minule jsme tak jako naťukej jak tady tuhletu pravděpodobnost _e budeme počítat
0:04:01bude to vlastně _e
0:04:04suma
0:04:05věrohodností nebo likelihoodů všech cest který nám to hádanku může vydat C pro všechny cesty
0:04:12který jsou tady někde který probíhají tady tímto stavem v tomto čase a tady vlastně
0:04:17zase se nám to rozběhne a bude to suma všech se který jsou někde jinde
0:04:21_e abychom S kázali dostat nějakou pěknou numerickou hodnotu která by tady toto ohodnotil a
0:04:27ale neměli bysme naprosto zaručený že tady toto hodnota bude slušná
0:04:32pravděpodobná
0:04:33aby to slušná pravděpodobnost byla tak už víte že když máte hodnotu tady a eště
0:04:39tady access toho udělat _e slušný pravděpodobnosti tak _e
0:04:44se dá udělat jednoduchá věc
0:04:46a to že vezmete ty hnusný hodnoty s každým stavu
0:04:50všechny je po sčítáte a pak tady těmito hodnotami vlastně ty jednotlivý hnusný hodnoty podělíte
0:04:56a najednou dostáváte krásné hodnoty které budou sumovat do jedničky a který se potom dají
0:05:01použít jako ty váhovací _e váhovací kreslit
0:05:05tak a taky jsme si říkali že vlastně když se nad tím člověk zamyslí a
0:05:09_e uvědomit si co jako právě řek že teda jako to může _e že udělá
0:05:14sumu všech cest který vlastně probíhají primátorym a tudyma eště tudyma
0:05:19tak už je to prakticky suma uplně všech se
0:05:23tedy tím alarmem cam probíhají
0:05:26a tu sumu úplně všech cest nebo všech stavových sekvencí jsme nazvali baumwelchovu v a
0:05:32_e likelihoody
0:05:34a mám takovej pocit že sme vyznačili jako _e jako velký té
0:05:40o který je prostě vygenerovaný modelem takže poďme se teďka trochu detailně _e říci
0:05:46jak _e který k těm hodnotám
0:05:50dojdeme a jak tady ty magický pravděpodobnosti který hrozně potřebuju jinak prosím vás eště notaci
0:05:56já to mám jedné sadě svojich slajdu nadšený jako L jet E
0:06:01a někdy jindy tomu taky říkám jako gama
0:06:05jako gama je C
0:06:07pokaždý je to stejný ale to učení řečeno posteriorní pravděpodobnost _e
0:06:13_e vyslání tohohle T o rámce je tým stavem
0:06:19jo takže _e poďme se podívat jak bysme na to asi tak mělí
0:06:24tady vlastně jinými slovy řečeno procesor vám _e říkal to znamená že můžu vzít tady
0:06:29tenhleten likelihood a po normovat to sumu všech likelihoodu will tomto čase a přes všechny
0:06:36stavy
0:06:37a že teda se to dá přepsat takže je to vlastně _e celkový baumwelchův tady
0:06:43klidu
0:06:44vyslání téhleté sekvence vektorů celým naši máme unk
0:06:49tak
0:06:50a poďme _e poďme naše _e začít rýpat
0:06:53detailně
0:06:55do toho jsou vlastně umí dělat tady je čas
0:07:00tady
0:07:01soustavy raménka to johannem přítomen označíme jako
0:07:06jako nějakej jednoduchej modýlek
0:07:10a teďka _e
0:07:13víte že musím určitě začínat tady v tomhle stavu ale dál se mi to
0:07:17rozvoji a tady se mi to
0:07:19zase rozvoji
0:07:21a ten limity sty _e nebo ty stavové sekvence můžou _e můžou přeskakovat
0:07:29a my se tady někde uprostřed
0:07:32ocitáme
0:07:35_e
0:07:36hledaném nebo v čase to je
0:07:39ale stavu je
0:07:41a chtěli bychom prostě jako _e hrozně pro něj spočítat
0:07:46_e ten likelihoodu jako všech cest který budou tady všude před tím
0:07:51a tady někde všude potom
0:07:53a v tomto stavu
0:07:55budeme nebo v tomto čase budu přesně tomletom stavu
0:07:59tak my si to rozdělíme na dvě _e na dvě _e
0:08:03a dvě na dva komponenty
0:08:06co vám říkal že komponentová vrat mužského rodu a ne vždycky
0:08:09tak první záležitost bude
0:08:12_e tak zvaná částečná dopředná likelihoodu
0:08:16že jsem začal na začátku modelu
0:08:18tedy
0:08:19někde tady
0:08:21a že sem se až do tohodle času
0:08:23dostal
0:08:25_e dostal semka jo to znamená suma ševče všech cest
0:08:29který nastartoval i na začátku modelu a do tohodle času dolezli do tohodle stavu
0:08:34tak a zase jako
0:08:37budeme postupovat nějak iterativně teďka si představte že sme tady v tomto
0:08:43_e vo tom postavu
0:08:45a tomletom čase
0:08:47a chci teda tuto likelihood vypočítat
0:08:50zkuste měli taky do toho budou vstupy
0:08:55bude tam zase jako nějaká jednoduchá rovněč k a
0:08:59a ukončuje nemáte to dobře
0:09:03tak mně řekněte _e poté co sme si prošli D C dvojtečka matroš třeba jako
0:09:08něco víte o grafech možná z nějakého jinýho kurzu
0:09:11jak tady ten černej puntík budu moci spočítá
0:09:17a možná jako pro osvěžení paměti
0:09:19_e
0:09:20s každým černým puntíku nebo s každým puntíku na tom grafu mohou spočítat ňákou takzvanou
0:09:27výstupní likelihood tím že vezmu akustický vektor
0:09:31a narvu ho do příslušnýho
0:09:34rozdělení pravděpodobnosti toho daného stavu to mně dá nějakou hodnotu
0:09:39_e když cestuju
0:09:41po červené čáře tak _e tam budu mít přechodovou pravděpodobnost s toho minulýho stavu do
0:09:48toho současnýho stavu
0:09:50jo takže push
0:09:51bychom mohli ten černej puntík zkusit postavit
0:09:56sim
0:09:57zkusíme
0:09:59musíme budeme na
0:10:01zkusíme zabít především
0:10:03tak
0:10:04_e likelihood černým puntíku
0:10:07což bude nějaká _e
0:10:09alfa je to je
0:10:12bude na jako
0:10:14suma přede všechny stavy kde sem mohl být
0:10:19před tady tím nastavím jo a tady vidíme že to je že jako se nemám
0:10:23tolik na výběr že sou dva a pod mzda napsat obecně tady tohle budou možných
0:10:27sta vidí
0:10:28teďka já tam musím vzít v úvahu ty částečný _e pravděpodobnosti
0:10:35tomto stavový a teďka mě řekněte sama na sebe závorky
0:10:42jo tady toto je časté
0:10:44teďka pracuju s těmadle červí mamutí tom
0:10:49T mínus jedna jo předcházejícím čase
0:10:52takže to je mínus jedna
0:10:54a když se budu chtít rejpnout
0:10:57poté helete _e čáře nebo po téhleté čáře do toho velkýho černýho puntíku kde teďka
0:11:04zrovna počítám tak tam ještě musím dopsat co
0:11:11tak vždycky když se vybuzeno stavu do jinýho stavu tak do po přechodové pravděpodobnosti jo
0:11:16to znamená bude tam muset být hodnota a je
0:11:20ale když do toho velkýho černýho puntíku dovezu
0:11:23tak tam bude muset být ještě co
0:11:28ten je T stav musí se hrát
0:11:31T vektor a musí říct jak i u jakou pro něj
0:11:35produkuje výstupní hodnotu funkce hustoty rozdělení pravděpodobnosti jo takže ještě budu muset napsat
0:11:42že sem vlastně věcným stavu
0:11:45a vysílám ten _e
0:11:48vysílám ten T vektor strašném mám pocit na čili
0:11:52na čili nějak takhle jo jako
0:11:55se
0:11:58jo a teďka jako
0:12:00víte že to docela z jednoduchý protože na začátku to samozřejmě musím nějak _e nainicializovat
0:12:09musím říct že tady _e že tady u toho
0:12:13_e že u tohoto prvního stavu
0:12:16vlastně
0:12:17M
0:12:18sem tam musel vlez nějakou úvodní
0:12:21přechodovou pravděpodobností
0:12:23N času které ještě neexistoval jo tam tady nemám žádnej
0:12:28tady nemám žádnej vektor
0:12:32vektor ne
0:12:34jo takže jenom _e počítám vlastně přechodovou pravděpodobnost
0:12:39toho počátečního stavu sem
0:12:41a teďka musím vyslat _e sem prosím vás tady uzavřete rolničky jo a teďka musím
0:12:46vyslat _e ten první _e první vektor které je k dispozici jo takže takhle se
0:12:52ten algoritmus nahodí
0:12:55potom vlastně v běžných iteracích _e vo můžu klidně nechat probíhat takhle to znamená každý
0:13:02stát
0:13:04krávo v baru modře jo kde kdesi počítat tak si prostě žere
0:13:09_e svoje vstupy a přidává com příslušné přechodové pravděpodobnosti a tu svoji vysílací
0:13:16a když půjdu dál tak zase třeba tady tenhle stav tak si
0:13:21uděláte toto a toto a tak dále a takhle vlastně jako propaguju a postupně rozšiřují
0:13:27ty _e částečné dopředné likelihood i
0:13:31no a pak budu muset ten algoritmus nějak uzavřít že jo když dojdou do úplně
0:13:36posledního času
0:13:38kdy bude
0:13:40konec promluvy velké T
0:13:43tak tady _e
0:13:48tady _e vlastně _m musím
0:13:51říci
0:13:52teďka sem úplně na konci
0:13:55a
0:13:57pak vlastně existuje většinou ještě nějaká výstupní pravděpodobnost
0:14:01prosperity jo markovova modelu
0:14:03kterou budu muset _e kterou budu muset vynásobit hodnotu kterou budu mít a budu hotový
0:14:09na konci
0:14:10co si myslíte že na tom konci tady dostanu co tady bude za hodnotu
0:14:21uvědomte si co jsme dělali s každým
0:14:24každé kombinaci času a stavu
0:14:26no vlastně vzali v úvahu všecky cesty
0:14:29předcházející možný
0:14:31udělali jsme tam sumu
0:14:33a teďka prostě jako jedem až do konce
0:14:37a teď sem najednou skončil
0:14:39co si myslíte že bude k dispozici tady
0:14:43my bysme si to měli označit formálně
0:14:45tak by se to menovalo
0:14:48alfa
0:14:50_e nějaký N jako poslední stav a
0:14:54to je plus jedna jako že už všecko skončilo že dnes toho modelu vylezli
0:15:01myslíte že tam bude
0:15:04no perfektní A Z tom dáme tomu nějaký jméno po nějakejch dvou plánech třeba
0:15:09třeba baumwelch že jo takže tady toto je hrozně důležitý protože já když si udělám
0:15:14tento algoritmus tak na konci
0:15:16to hodnot z toho vypadne hodnota té o M vlastně celkový ohodnocení té sekvence vektorů
0:15:23celý modelem
0:15:25a už neberu nějakou jednotlivou _e stavovou sekvenci ale sou vtom načítány úplně všechny
0:15:31a toto je
0:15:32suma přes _e všechny možný cesty jo
0:15:35bezvadný takže _e tady to máme nějak formálně
0:15:40opsaný
0:15:41takový krásný obrázek
0:15:44_e kdybychom _e
0:15:47kdybychom se to chtěli napsat rovnicí no tak to bude vypadat asi
0:15:50si nějak takhle to sem tam před chvilkou měli
0:15:53a uzavření algoritmu
0:15:56je to psáno prostě všechno obecně ale vopravdu je lepší si namalovat graf abyste viděli
0:16:02_e co se děje a ta poslední likelihoody taký žena baumwelch
0:16:07bezvadný takže máme _e částečnou likelihood X začátku dostat až do stavu je
0:16:15v čase T
0:16:17co myslíte že budem dělat teďka
0:16:22jo pořád zkuste držet hlavě jako jaký máme _e jaký máme vlastně problém se sem
0:16:27vyřešit
0:16:28my chcem vyřešit T pravděpodobnost
0:16:32že budeme B
0:16:35čase je
0:16:38čase to je ve stavu je
0:16:40to šíje
0:16:42chomáč nějakejch cest na začátku teďka přesně tenleten stav tomletom čase a chomáč nějakých cest
0:16:48na konci
0:16:49taktika nevyřešili těma hodnota má alfa chomáče těch cest na začátku a to že sou
0:16:55teďka tady
0:16:56co nám ještě zbývá vyřešení
0:16:59tak vodsaď nakonec že jo prostě všechen jako _m všechny nesmyslným cesty vodsaď až nakonec
0:17:06tak _e jak myslíte že to je to nebudem řešit
0:17:09eště než tam nám příslušné vobrázek
0:17:12pudem
0:17:13vodsaď nakonec nebo
0:17:16od konce
0:17:17sem
0:17:18správně jo takže budeme definovat něco co se menuje _e částečný zpětný likelihoody
0:17:24který začal jsem na konci modelu a v čase T sem vystavuje a zase si
0:17:28pojďme udělat _e rovnou malůvku
0:17:32jak to _e jak to bude vypadat
0:17:36tak já si možná do té malůvky vezmu _e tu další
0:17:41rovnici
0:17:43ne
0:17:44tedy tady toto
0:17:45já mám tady zase
0:17:47u
0:17:49u
0:17:50tak _e to je takový pěkný graf Í
0:17:54_e
0:17:55tady se mi
0:17:57rozbíhají ty
0:17:59různé
0:18:00cesty a tak dále bla
0:18:03teďka _e
0:18:05sem tady
0:18:07vlastně
0:18:08na konci
0:18:10B
0:18:13B
0:18:15E stavu
0:18:16čase
0:18:19
0:18:21tady je poslední posledních stav modelu
0:18:25tady mám prostě jako kdyby neexistující čas T plus jedna
0:18:29a přechodovou pravděpodobnost _e
0:18:34předposledního stavu modelu
0:18:36do posledního
0:18:38tak a _e teďka sem prostě tady někde
0:18:42uprostřed toho chumlu
0:18:44vedou myslím cesty _e z času a stavu který jsou potom
0:18:50a já budu chtít se spočítat _e
0:18:55_e zpět částečnou zpětnou likelihoody
0:18:58že sem tam stavu B je
0:19:00čase _e
0:19:03v čase T
0:19:04tak poďme si zase říct co tam tak asi se mi tam tak asi mohlo
0:19:09bejt
0:19:13tak je tam asi
0:19:16následující
0:19:18částečná zpětná lekli může následujícím ne podle toho jak to počítám ale
0:19:22následující vše se omlouvám se protože _e takhle čase od konce na jo
0:19:28takže bude tam _e suma přes všechny napojený stavy
0:19:33_e kde dám
0:19:35částečnou zpětnou likelihood a teďka to bude co za čas
0:19:41když počítám čase to je tak tam musí být
0:19:44to je plus jedna super
0:19:48_e co tam bude
0:19:49eště asi
0:19:52jsou tady modrý puntíky taky ještě je potřeba nějakým způsobem kvantifikovat i ty čáry bude
0:19:57co
0:19:59to budou přechodových pravděpodobností jasně a Í je
0:20:02a teďka bacha
0:20:05ty či _e tam asi budeme muset nějak zamixovala
0:20:10vysílací likelihoody že jo vyslání _e vektoru nějakejma zprávama
0:20:17ale teďka přesně jak nám tam zkusím něco napsat
0:20:21zkusím vám tam napsat B
0:20:24_e je
0:20:25B je o té
0:20:31a co myslíte bude tady todle dobře nebo C
0:20:37prosím
0:20:40jedna mínus B je
0:20:42proč
0:20:45_m ne
0:20:48vono mi to takhle mohlo fungovat ale uvědomte si že já sem vlastně _e při
0:20:52výpočtu alfy jo když jsem počítal si tak sem balil takhle prostě jako začátku
0:20:58a v tom daným stavu
0:21:00a v tom daným čase
0:21:02sem tam _e
0:21:04prásknul hodnotu B je
0:21:06B hote takže a už vlastně spočítal
0:21:10teďka jedu
0:21:12betty které jdou od konce a
0:21:15hlavě pořád jako musím držet že mě de vo to celkovou pravděpodobnost a že ty
0:21:18alfy aby ty budu muset nějakým způsobem kombinovat
0:21:21a teďka najednou kdyby tam bylo to co mám tady nahoře v rovnici tak tam
0:21:26bit a vysílací i tady klihu daného stavu daným čase byla prostě dvakrát
0:21:32jo tomto B je o té by tam bylo dvakrát
0:21:35koš
0:21:36kdyby nebylo zde bylo moc dobrý to znamená vono to takhle nebude prosím vás
0:21:42ale v tomto případě
0:21:44se to B je teďko
0:21:46bude počítat s každým stavu
0:21:50se kterýho vlastně jsem se do toho
0:21:53následujícího nebo s čase předcházejícího mohl dostat tady bude tam B C
0:22:00o
0:22:01T plus jedna
0:22:04jo aby to bylo úplně jasný tak se ještě cely tady tenhleten nesmysl můžem dat
0:22:09do hranatých závorek aby bylo jasný že prostě sumujeme
0:22:13celý tento _e celý
0:22:16celý tento výraz
0:22:19jo a takhle _e je vypočítaný _e prodlevě vypočítaná částečná zpětná like lidu
0:22:26a _e teď prosím
0:22:29se ještě poďme jako říct jak ten algoritmus nahodíme
0:22:33a jak ho _e jako kill hneme
0:22:37když ho budeme nahazovat
0:22:39tak _e
0:22:41se musíme
0:22:43podívat někde tadyhle
0:22:46_e na začátek to znamená posledním
0:22:50čase
0:22:51a ve všech možnejch stavech ze kterýho _e ve který můžou být posledním čase většinou
0:22:57tady toto bývá jenom ten
0:22:59jenom jediný že většinou a toto je nebývá žádný R
0:23:03ale
0:23:03musí to být stav N mínus jedna takto na inicializuji pomocí té poslední nejposlednější
0:23:11přechodové
0:23:13pravděpodobnosti
0:23:15pomocí tady tenhle o které kterou se s toho a nevím se dostanu ven tady
0:23:20toto je vona
0:23:22potom si udělám ten svojí iterativní algoritmus
0:23:25a když budu chtít uzavřít
0:23:28tak _e musím posbírat
0:23:32to co sem měl ve všech _e ve všech _e
0:23:37tu první stavech
0:23:39toho modelu po násobit to ještě _e vysláním prvního vektoru nemáme vstupního to má
0:23:47a eště _e eště vlastně jejich _e
0:23:53jejich částečně na zpětným a likelihoodem a většinou ten vstupní stav je sem samozřejmě jenom
0:23:57jeden jo prosím vás
0:23:59A mám prostě
0:24:00stup
0:24:03toto
0:24:05_e s toho prvního vstupního stavu všecko je a mám hotovo mám vlastně _e
0:24:13částečný zpětnej likelihood
0:24:17no
0:24:18čase kterej ještě před začátkem mojí promluvy
0:24:23a nějakým pomocným stavu který je vlastně ještě před obyčejným a stavem a jenom a
0:24:28mýho nevím cache teďka mi zase řekněte čemu bude odpovídat tady tahleta
0:24:33poslední spočítaná
0:24:36a vlastně prvních čase
0:24:38pět na tady klid co to bude
0:24:44jo a zase si uvědomte že postupně jak sem jako balil takhle nazpět čase
0:24:49tak jsem zase brát v úvahu úplně všechny cesty který se sto modelu
0:24:53nebo vtom srovnání časovým _e vektoru nastaví modelu mohli vyskytnout
0:25:00jo poctivě sem nesmlouval
0:25:04co myslíte že to bude
0:25:16tak
0:25:16žádný velký překvapení nebude bude to zase baumwelchovu likelihoody
0:25:21vyslání téhleté sekvence vektorů modelem po všech možnejch cestách jo vzpomeňte si když sem stavěl
0:25:27částečných dopředných pravděpodobnosti tak jsem to postupně stavělo začátku do konce
0:25:32teď sem to postupně počítal úvod konce do začátku ale když sem to dělal dobře
0:25:37tak by mě měli být úplně stejný hodnoty a zase tady tahleta _e první
0:25:43jo poslední spočítaná beta bude
0:25:47celková vám welchova likelihoodu
0:25:50vyslání téhleté sekvence vektorů tímhletím od a
0:25:54tak
0:25:55to je docela mimochodem dobrý že to máme spočítány schválně kde tady to celkovou likelihoodem
0:26:00potřebovat
0:26:02do to ještě nezapomněl
0:26:04normalizaci přesně tak jo takže mám jako super hodnotu
0:26:08arrow budu schopny _e s každým čase normalizovat _e ty spočítaný
0:26:15spočítaný hodnoty tak a jak ty hodnoty spočítám no to už je docela v pohodě
0:26:20protože
0:26:21já zase opakuju že mě zajímá tady tenhleten čas
0:26:25tenleten stav
0:26:27alfy mě
0:26:28počítají tady tenhleten maglajz
0:26:31betty mě počítají tady tento maglajz
0:26:35a já když si spočítat tu svoji
0:26:38_e
0:26:40svoji state occuppation probability nebo tady tu _e řekněme měkkou pravděpodobnost bytí s tomletom stavu
0:26:47tomletom čase tak je prostě vynásobím jsou co
0:26:51tak to po normu you know celkovou baumwelchovu X mínus
0:26:55a hotovo nový dělá
0:26:58takže _e je to zajímavý že jako kvůli jedné hodnotě
0:27:02nějak která se tady máme L je té sme tady strávili půl hodiny ale toto
0:27:06je vopravdu naprosto nejdůležitějších hodnota při trénování _e ne mac
0:27:11tak _e odteď _e
0:27:14se vás zeptám
0:27:16kostní teda jako budem dělat
0:27:18takhle si lety hodnoty třeba při trénování nějakýho jednoduchýho motýlku
0:27:22můžou vopravdu vypadat
0:27:25no tohle je dejme tomu
0:27:27_e ta L
0:27:28_e
0:27:31ta funkce zalijete
0:27:33prvního visí prvního vysílacího stavu
0:27:37to je ta zelená bude druhýho
0:27:39to je ta červená bude třetího mám pocit že sem to opravdu jako vygeneroval neskutečnýho
0:27:43alarmem k a
0:27:44všimněte se prosím vás
0:27:46že když si uděláte takhle z S v libovolném čase
0:27:49tak skutečně suma přes všechny je teďka
0:27:54jo každým čase těch hodnot nelžete určitě
0:27:59rovná se jedna to znamená budou to dobrý koeficienty na to aby jsme použili jako
0:28:03vážený jako vážený průměr i
0:28:05tak _e
0:28:08takže teďka zasednu
0:28:12nebudu vám ukazovat
0:28:13co dál té přednášce
0:28:15a zkusíme si napsat nějaký
0:28:18nějaký rovnice
0:28:20jak při odhadnout parametry
0:28:23ale mém k a když jsem zřej s jeho starým a parametrama spočítal takovýhle pěkný
0:28:28hodnoty L je se
0:28:30tak
0:28:32jo mám tady nějaký _m
0:28:40_e teďka
0:28:44dejme tomu že tady toto je stav
0:28:48_e prostě index stavu bude je
0:28:51tak tady mám velkou
0:28:54plus tou maticí parametrů o která má první vektor cache
0:28:59to je tady vektor
0:29:02a teďka sem si horko těžko pomocí starých hodnot toho _e a
0:29:07_e spočítal
0:29:09od M spočítal funkce relied _e
0:29:13který vlastně zbavujou příspěvek tady těchdle těch vektoru trénování každýho stavu anka tak a chci
0:29:21spočítat novou hodnotu
0:29:24střední hodnoty
0:29:26yettiho stavu a vy mě řeknete jak
0:29:35tak _e pojem na to jednoduše jo jak by se ta střední hodnota počítala
0:29:39kdybych tam neměl žádný jako žádnou spočítanou funkci a rijece a kdyby měl prostě k
0:29:45dispozici jenom tady tuhletu
0:29:48jenom todleto matici
0:29:50vstupní vektoru
0:29:53průměr přesně tak jo tak podpojmy se tam vopravdu napsat průměr
0:29:57_e téčko valí vod jedničky do té a
0:30:00_e dám tam
0:30:02hodnotu o té a podělím to jedna lomeno T a je to pro mě to
0:30:07umíme všichni že jo
0:30:09takle bych adam pojďme udělat trochu složitější průměr
0:30:14přesně tak takže _e budem bude mazat a uděláme to násobení tím zalijete k který
0:30:21jsem před chvilkou horko těžko vypočítal
0:30:24a bude tady tohle dobrej průměrnému nebude
0:30:29ne jak to
0:30:32tak bacha jo my sme si řekli že ty L je tečka
0:30:35ty měkký hodnoty
0:30:37že budou jako hodný s každým s každým čase jo že s každým čase se
0:30:41nám budou sumovat
0:30:43L jedna T L dva to je a při té že se nám bude sumovat
0:30:46do jedničky touto bude super
0:30:48ale uši sem vám ne zaručil že tady ta suma se do jedničky bude probíhat
0:30:52i přes všechny časy to bych jako byl docela zázrak kdyby _e kdyby se
0:30:57čase sumu valy
0:30:59do jedničky jo to znamená že my budeme muset udělat co
0:31:08no tak podělit že jo když máte nějaký koeficienty vo kterejch nic moc nevíte a
0:31:13zapíchl eseje dopočítání vážený o průměru to sme tady nemám mimochodem měli už minule jo
0:31:18ale a to budu omílat pořád dokola vy vám to neřekla v dostal
0:31:22takže
0:31:23po sumujeme pěkně
0:31:26_e hodnotou
0:31:28nebo sumou těch koeficientů a tohle už bude dobrý toto už bude krásna _e krásna
0:31:33průměrná hodnota
0:31:35tak bezvadný
0:31:37_e teď prosím
0:31:40bych chtěl vědět C _e když budeme počítat nějakou třeba _e směrodatnou odchylku
0:31:46a _e to tady dám nějaký nějaké index třeba K tou směrodatnou odchylku
0:31:52X
0:31:52půjdeme na toto
0:31:56jo to znamená větším stavu řekli sme si že _e by člověk měl řešit jako
0:32:02kovarianční matice ale v hrozně složitý takže budeme _e budeme řešit _e směrodatnou odchylku
0:32:09teda toho simku na druhou a ten rozptyl
0:32:12_e kátýho prvku
0:32:15toho
0:32:16yettiho stavu
0:32:18tak asi tam zase bude nějakej průměr že jo který pojede přes všechny časy
0:32:23tak si ho tam plněna čára ste se rovná jedna do té co myslíte že
0:32:27bude tom průměru
0:32:32dobrý
0:32:34tak asi ten váhovací koeficient želatině dneska víme
0:32:39tak a pak tam bude _e
0:32:42ústředně na hodnot _e toho patřičnýho koeficientu a když počítáme střed _e rozptyl tak to
0:32:49bude muset mít na druhou jo to znamená bude tam něco jako o
0:32:55se K to znamená K tedy element T ho vektoru mínus me
0:33:02je
0:33:03k a všimněte si že to teďka nepíšu prostě protože to sou skaláry
0:33:07tady todleto na druhou a mu
0:33:10no to tak push spokojeni nebo nespokojeni
0:33:13ne za máme dělat
0:33:16normalizaci správně děkuji krát
0:33:19to je se rovná jedna
0:33:21_e
0:33:22jednáte L je to je
0:33:25dobrý tak teďka sme jako byly
0:33:27_e celkem
0:33:30celkem rychle hotový se středníma hodnota má _e se směrodatný moc žilkama a teďka začne
0:33:38jít do druhýho protože já bych potřeboval taky pře odhadnout prosím přechodové pravděpodobnosti
0:33:45a je
0:33:47a
0:33:49to bude
0:33:51docela zajímavý a musím říct že jako to tohleto z hlavy neumím
0:33:56pojďme spojme to zkusit
0:33:57sme si říct _e D jak by to asi tak mohlo být
0:34:01a potom to s konfrontujeme s realitou
0:34:05a u těch přechodových pravděpodobností
0:34:08prosím uvědomíme že jak sme měli takový ty grafiky tady bylo časté
0:34:13tady prostě byl namalovanej ten
0:34:15ten model
0:34:17takže teďka najednou budou řešit nějakou hodnotu která mě bude říkat jak je pravděpodobný že
0:34:22přelezu ze stavu Í
0:34:25dostavuje
0:34:28no a _e
0:34:30my sme měli v tom grafu takové prostě ty
0:34:34_e
0:34:36_e v ošklivé hodnoty své všude spočítané
0:34:40_e každy
0:34:41vlastně každý _e každý stav
0:34:45a každý čas
0:34:46měl svoji alfu
0:34:48svojí metu
0:34:51a _e my s nima si budeme muset něco vyrobit abychom
0:34:55zjistili jaké teda pravděpodobný
0:34:58že
0:34:59přeskočíme ze stavu Í
0:35:01dojička
0:35:02tak zkuste radit
0:35:04jo teď teďka k množinami vostrý
0:35:06_e Í je
0:35:08rovná
0:35:12tak asi zase budeme muset prozkoumat všechny časy že jo protože ty _e ty přeskoky
0:35:18se mohli objevit ve všech možnejch časech takže asi
0:35:22_m se nedá nic dělat
0:35:24dáme tomto je se rovná jedna
0:35:27načte
0:35:28tak co dál
0:35:30mějte si že tam teďka budu moct použít se tu _e posteriorní pravděpodobnost bytí
0:35:38ve stavu jo čase toto zalijete
0:35:43to je takový
0:35:45to je jako s otazníkem že jo protože to mě udává _e pravděpodobnost bytí v
0:35:50jednom stavu vtom daným času
0:35:52a teďka jako to mám dělat já to mám ty stavy dva a potřebuju zjistit
0:35:56jak je pravděpodobný že sem z jednoho přelezu do toho druhýho tak poďme zkusím vymyslet
0:36:00něco jiného
0:36:03tak _e
0:36:04to kdybysme
0:36:06vložení pánové
0:36:08zkusili takovou fintu
0:36:10a to všechny se pravděpodobnost všech možnejch se které jsou tady před tím
0:36:16před
0:36:17jo
0:36:20teďka
0:36:21přeskok
0:36:22a pravděpodobnost všech cest který jsou tady po
0:36:27a tady tu činku nebo spermií nebo jak to vypadá takto musíme ale prosím vás
0:36:33přes sumovat
0:36:34přes všechny možný časy
0:36:37jo takže poďme zkusit _e budeme tam zkusím naplácat nějaký hodnoty tak
0:36:42navrhujete
0:36:44částečná dopředná pravděpodobnost čeho
0:36:51_e bych řekl že toho prvního stavů ne
0:36:55a času té alfa víte
0:36:58co tam dáme dál
0:37:01a to pak neumim nazpaměť lidového taktika to
0:37:04vymýšlím s mám jako trošku více zkušeností mezi
0:37:07podpořte město si poradit další
0:37:14tak teďka _e budu řešit tady tenhleten obláček jako jo po
0:37:20tak _e
0:37:22porážce poradce
0:37:25asi nějakou betu že jo a čeho
0:37:29jestli ho stavu čase teplu jedna dobrý
0:37:33teďka že tam něco lechtivý
0:37:36abych potřebovat tady tyhlety dva stavy nějak propojit
0:37:39co tam ještě musím namíchat
0:37:43tu původní pravděpodobnost a je jo to co mám jako teďka potom rozhodně musím dat
0:37:50a teďka bacha teďka _e sem se dostal do
0:37:55problému který nevím jestli úplně přesně vidíte
0:37:58protože
0:38:00v tomto
0:38:02_e to si člověk musí uvědomit jak vypadají vzorečky
0:38:06do výpočty alpha a bad
0:38:08já sem
0:38:09tady
0:38:10určitě namíchal vtom vzorečku pro alfa Í
0:38:13_e vysílací
0:38:15v likelihood B Í
0:38:17B C o té jo
0:38:20ale když jsem řešil _e ty _e když jsem vyřešil tibet i
0:38:26tak jsem řekl že tady v tomto bodě tam ten vysílací likelihood nemůžu zamíchat protože
0:38:30by to bylo špatně a mám tam jenom vysílací likelihoody tady prostě v těch dalších
0:38:35stavech
0:38:36a dalších časy
0:38:37takže mě tady
0:38:39vysílací likelihoodu chybí a já si ho tam pánové musím dodat takže to bude zde
0:38:45ve je
0:38:47R sorry
0:38:49B je T plus jedna
0:38:53jo a tím pádem budu mít tu sadu hotovou prostě byl jsem
0:38:58kdekoli před tím včetně vysílacího likelihoodu teďka tam mám to spojnici
0:39:03tak tam vysílací lekli both vtom černým tlustým puntíku pak to mám všecko za
0:39:09a _e tím bych mohl být hotový takže tady ještě doplním B je
0:39:13to je plus jedna
0:39:17co bude po tou s čarou zlomkovou
0:39:24já se přiznám že nevím ale mám pocit že tam je ta celková likelihoody jo
0:39:29proč by tam neměla být že jo jako i ty i ty přechody by se
0:39:33mně vydatně jako mohl po normovat
0:39:35to znamená
0:39:37_e tady bych si tak tipl
0:39:41že
0:39:42bude
0:39:43to je
0:39:45o M
0:39:48ale vůbec si nejsem jistej
0:39:52jo _e tak se poďme podívat se jak to má být správně
0:39:59přechodový pravděpodobnosti
0:40:02_e ta tak tomto mám blbě pardon
0:40:05takže _e ten _e začátek sme dali dohromady dobře jo vidíte to částečnou dopřednou trade
0:40:11do stavu Í
0:40:14částečnou zpětnou která vyráží dál ze stavu je
0:40:20potom to jejich spojnici reprezentovanou přechodů pravděpodobností potom ještě to se nám tam chybělo tedy
0:40:27vysílací likelihood sestavuje toho jeho vektoru
0:40:31a dole sem se sekl je to _e
0:40:34je to vlastně suma
0:40:38všech _e
0:40:40_e všechno věc je teček takže tady tohle teda
0:40:44to sem
0:40:45to sem uzeného
0:40:47s prknem předělám
0:40:51tak větev
0:40:54suma přes všechny časy
0:40:56jo je
0:40:58tak _e mám to
0:41:01nebo celkem hotový
0:41:03tak a teďka prosím vás bych _e bych chtěl vědět
0:41:08když tady tohleto _e když tady tohleto počítání budete _e budete programovat
0:41:14nebo u teho programovaly
0:41:16jak byste to dělali
0:41:18jaký budou kroky
0:41:25vaše krok
0:41:28tak
0:41:30jo mám
0:41:32mám prostě nějakou
0:41:34_e
0:41:35promluvu
0:41:36no
0:41:41on promluvu o je jo
0:41:43nejsou vektory vod jedničky do péčka
0:41:47a mám nějaký původní hodnoty _e který sem prostě nějak _e na inicializoval
0:41:53a poďme teďka se bavit jenom vo těch střední hodnota nebo směrodatných odchylka že
0:41:58ní je
0:41:59a _e
0:42:01_e
0:42:02firma
0:42:03je k a
0:42:05na druhou
0:42:06tak
0:42:08rokem prvním bude to že musím pustit _e
0:42:12_e trénovací algoritmus
0:42:14nechat ho vlastně jako bublat přes všechny
0:42:18čili všechny časy
0:42:20se ve všechny je léčka
0:42:22a vyhodnotit si maticí všech a of
0:42:26jo alfa je se
0:42:28toto prostě vyhodnotím pro všechny časy pro všechny stavy
0:42:33potom si pustím zpětnej algoritmus
0:42:36jo takže půjdu kdo takle a zase přes všechny časy se ze všechny stavy
0:42:41si vyhodnotím matic i zpětnejch
0:42:44částečný likelihoodu beta jet
0:42:48vzpomenu si
0:42:49že
0:42:51této matici zde a této maticí zde získávám velmi cennou hodnotu
0:42:56a to je celkovým baumwelchův likelihood P
0:43:00pro o M
0:43:03a pak tady ty dva _e pak tedy ty dvě matice vynásobím _e dostanu tu
0:43:09_e nejcennějšího hodnotu po které sem
0:43:14no já sem se rovnalo
0:43:16a to sou to sou ty elka jo to sou prosím vás vlastně konstanty
0:43:23že
0:43:24který udávají L je
0:43:27té jo zase tady je čas
0:43:30a tady je _e tady stav _e
0:43:35tady je index stavu je
0:43:37tak a teďka prosím _e když se podíváme tady na tyhle rovnice
0:43:41tak _e
0:43:46si uvědomíme že vlastně já musím _e počítat pro všechny možný stavy
0:43:51který má to moje vrahy _e miminko
0:43:54ale že _e tady tyto rovnice sou docela jednoduchý _e ze existuju existují tam hodnoty
0:44:01C kterým se říká statistiky nultý ho prvního a druhýho řádu
0:44:05tak a zkuste mě teďka získat i statistiky
0:44:09se vlastně počítají _e
0:44:11pro každou promluvu pro celou tu matici velký tlustý o
0:44:15ale mě zkuste říct co ty statistiky nutilo prvního a rozdělují ho řádu asi budou
0:44:21se podívat se tady do těhletěch rovni czech
0:44:24co sou ty statistik
0:44:27každej stav _e mém k a když se trénuje tak má svoje
0:44:32patristiky
0:44:36co to asi bude zas
0:44:40dávám vám trochu poradím
0:44:43_e
0:44:45disky tam budou hrát roli nějaký váhovací koeficienty zalijete
0:44:50a _e toho co vedle nich sedí když to bude první mocnině
0:44:56tak to bude prvního řádu když to ve druhé mocnině že teda nějakým už na
0:45:01ústředně nejde to bude
0:45:03to bude
0:45:04druhýho řádu
0:45:05a když to tam nebude vůbec
0:45:08tak to bude nultý ho řádu
0:45:10tak ste my říct _e
0:45:13ten jiří ze vstupu
0:45:23horní tak podívejte
0:45:26_e
0:45:27předpokládáme že máme
0:45:30_m že máme
0:45:33hodnoty
0:45:35rozjetej stav jo
0:45:37tohleto
0:45:40je takzvaná statistika nutnýho řádu znamená
0:45:43_e nikde tam nevidím žádnou hodnotu
0:45:46hodnota vektoru není tam
0:45:49jo
0:45:49takže ta hodnota vektoru je tam na nultou
0:45:54není tam vůbec protože statistika nultý pořád
0:46:01tak teďka sem vám pomoh tak mně řekněte se ta ctatystyka prvního řádu
0:46:07ten této je ten čitatele že jo to je vlastně ta _e ta _e hodnota
0:46:14kterou dostanu když _e když budu
0:46:19M a pravděpodobnostma normálně násobit vobyčejný hodnoty vektoru
0:46:24zkuste měřítek bude ta statistika nultý ho řádu vypadat
0:46:28co to bude to skalár vektor
0:46:31košíček s ovocem
0:46:33prosím
0:46:34jak to
0:46:37A todleto je vektor
0:46:39todleto je takovymle pěknej vektor
0:46:41když ho vynásobíte koeficientem
0:46:44tak do pořád vektor
0:46:46jo takže bacha
0:46:49ne já sem říkal nultého tak se líbáme mně se mně se občas jako plete
0:46:53prosejvala pardon tak se omlouvám takže nultého řádu bude skalár
0:46:58prvního řádu
0:47:00bude vektor děkuju
0:47:02tak a teďka jak to bude se má statistika má druhého řádu tady
0:47:08_e
0:47:09tady určitě matice
0:47:11dyž sem řekl že budou
0:47:14_e že žádný kovarianční matice nebudou
0:47:17a že _e budeme pracovat jednotlivým _e element a má že
0:47:22jako já sem mohl between _e tomu sem tam nadefinovat maticí přijímá jo
0:47:28ale nejsem hodnej neudělal jsem to
0:47:31takže si statistiky druhýho řádu v tomhle případě bude budou co
0:47:46ve
0:47:49to je trochu otázka já si teďka dívám že vlastně na to abych vám dal
0:47:52pořádnou odpověď
0:47:54tak by měl ještě trochu zapracovat na této rovnici ano
0:47:58a _e přepsat i tak
0:48:01aby se _e tahleta rovnice dallas vyhodnocovat
0:48:05eště předtím než budu mít vlastně k dispozici _e než budu mít k dispozici střední
0:48:10hodnotu
0:48:12protože
0:48:17protože tady u této rovnice by to chtělo abychom že jako střední hodnotu spočítanou
0:48:26no
0:48:29tak _e
0:48:32prosím vás pomožte neříkal matematikou
0:48:35když se počítá _e směrodatná odchylka něčeho
0:48:38jo sigma
0:48:40sigma na druhou
0:48:42tak to může spočítat jako _e jako
0:48:45jedna lomeno T
0:48:47suma X
0:48:48mínus mi
0:48:50na druhou že jo
0:48:52a nebo
0:48:54si to můžu
0:48:57přepsat
0:48:58jako jedna lomeno T
0:49:01suma
0:49:02X na druhou
0:49:04mínus
0:49:10určitě
0:49:15jo za X mi
0:49:17vám právě postižené
0:49:27mínus nějak do v tady možná dokázali odvoditelná nám právě pocit že když je že
0:49:32když tam máte tu hodnotu mínus dva X mi
0:49:35tak _e
0:49:40tak si
0:49:42tady sme krát E
0:49:44jo
0:49:47no to je mínus jedna pokud teda jako děláme nevychýlený odhad a pokud děláme takovej
0:49:52ten vobyčejný
0:49:53tak děleno se takhle
0:49:55dobrý tak jo no tak _e já už radši snižuje si to nechám to si
0:50:00odvozování protože to dycky dopadá špatně
0:50:03ale chtěl jsem říct že tady toto _e rovnici vlastně můžeme přepsat
0:50:08tak to
0:50:10samozřejmě si do ní zapojíme své váhovací koeficienty jo to znamená
0:50:15_e tady by to bylo očko že jo a tady bych někde daleko L je
0:50:19_e kryjete
0:50:22a _e
0:50:25tady bych dal
0:50:27taky L je to jenomže by vlastně mohl dat až na konci a sumu toho
0:50:31L je T
0:50:34a chtěl jsem říct že vlastně nám _e bude _e stačit
0:50:38když budu
0:50:40ve statistice nultého řádu prostě počítat
0:50:44průběhu času
0:50:45přičítat hodnoty nalejete jo udělám si akumulátor ten začátku dám na nulu a při každým
0:50:52_e při každým _e čase tam budou přiřazovat hodnotu L je to je
0:50:57jo
0:51:00pak si udělám druhej akumulátor které bude vektorové A
0:51:06a s každým čase tam budu přivazovat hodnotu _e relied _e toho váhovací o koeficientu
0:51:13krát
0:51:14současnej
0:51:16vektor právě čase T
0:51:19jo a tady toto budu pořád prostě dokola spát do akumulátoru
0:51:24při každým novým čase to tam přičtu
0:51:27a na konci až doběhne čas dokonce tak budu mít nebudu mít tady tohle jo
0:51:33a konečně při počítání _e těch směrodatných odchylek
0:51:37tak si budu muset udělat ještě jeden akumulátor
0:51:42tedy když teda nepočítáme
0:51:45splněny kovariančními maticemi tak bude vypadat nějak takhle _e tam budu akumulovat
0:51:50hodnoty L je T krát _e
0:51:55a teďka
0:51:57abych se do toho nezasekl tak vám za napíšu jenom pro tu jednu konkrétní skalární
0:52:02hodnotu tady
0:52:03že tam bude _e
0:52:08je
0:52:09bude tam
0:52:10krát _e hodnota
0:52:13Z
0:52:14T ho vektoru
0:52:16a to bude
0:52:17prosím
0:52:18na druhou jo takže toto bude můj akumulátor toto budou moje statistiky druhýho řádu
0:52:25až mě doběhne čas
0:52:28tak pomocí tady této slavné rovnice kterou sem tady nestačil dodělat
0:52:32tak dokážeme prostě udělat odhady střední hodnoty odhady
0:52:37_e směrodatných odchylek
0:52:42tak
0:52:46_e dobrý máme vlastně
0:52:48nějaké více či méně složité rovnice pro odhad parametrů modelu
0:52:53_e na jedné jediné promluvě
0:52:56jo teďka prosím vás opakuju
0:52:59to co sem říkal minule že to trénování probíhá tak že vlastně si napřed inicializují
0:53:04nějaké hodnoty modelu nějak prostě tu promluvu rozdělím
0:53:08_e spočí spočítám si původní střední hodnoty původní _e směrodatný odchylky nebo kovarianční matici
0:53:16a pustím přetrénování první fázi přetrénováním něco dá tady ty nějaké hodnoty L je to
0:53:22je vlastně ty rozhodovací koeficienty
0:53:25těma odhadnu nový hodnoty a takhle to potom podstrčím pořád dokolečka až na nějaké kriteriální
0:53:32funkci což většinou bývá lekli uteklo celé _e z celé promluvy až to prostě přestane
0:53:38let tak prohlásíme se model do trénovala že jo to
0:53:41takhle toto brož velmi školní příklad když sem trénoval na jedné promluvě takhle to nikdy
0:53:47není si promluv mám k dispozici třeba milion
0:53:50a chci natrénovat jeden model
0:53:52tak rovině teďka zkuste
0:53:54povědět
0:53:56jak
0:53:57se vyrovnám
0:53:58s milionem promluv
0:54:11jo tady ta suma
0:54:13té se rovná vod jedničky do tečka
0:54:16to platí tady pro tuto konkrétní
0:54:19promluvu jednu
0:54:21já jseš nemám jednu ale milion a přesto chci natrénovat
0:54:26můj model který má nějaký střední hodnoty nějaký teda ty odchylky nějaký přechodový pravděpodobnost
0:54:31tak račte co mám dělat
0:54:44tak
0:54:45podívejte se kdyby zadali trošku
0:54:47nebo tady tu pastelkou světelnou a pěkně tady ke každé sumě
0:54:53eště přidělali jednu
0:54:55a tam dám třeba
0:54:57_m to tam mám dat Č rusky
0:55:01a šel
0:55:02bude index promluvy
0:55:06jo všechny pro všechny sumy předělám tak
0:55:09že pojedou přes všechny promluvy
0:55:13a v rámci každé promluvit pojedou eště přes všechny časy
0:55:18jo
0:55:19jednoduchý prostě
0:55:21tady budou mít _e
0:55:25na váhovaný
0:55:26vektory tentokrát nevím nepromluvili úplně ze všech
0:55:30dole spočítám jako normalizační koeficienty
0:55:33taky ze všech a tak dál
0:55:35jo
0:55:36takže tady byste si ke všem těm _e ty černým sou mám připsali včel
0:55:41tady by to asi chtělo
0:55:43_e eště nějak oindexovat že jo takže by to bylo tady osvč _e
0:55:47_e by bylo relied Č
0:55:50_e no taky zvětšil
0:55:52_e každá bude mít jinou délku takže bysme tosče doplnili like céčku
0:55:57ale prostě dokázali byste si představit co se děje jo
0:56:01eště jednou ten algoritmus by _e probíhal tak
0:56:05že bych dycky vzal promluvu
0:56:07proto konkrétní promluvu abych spočítal
0:56:11a osy
0:56:13dopředným průběhem zpětným průběhem bych počítal betty
0:56:17abych je
0:56:18smil dohromady získal bych pro tuhle promluvu
0:56:22_e ty moje krásný váhovací koeficienty zalijete
0:56:27a teďka bych prostě
0:56:29_e za pích no
0:56:31tyto koeficienty do příslušné neodhadovat tři rovnice a počítal
0:56:36a teď prosím vás se asi začnete příkladu na to prosím vás tady obtěžoval s
0:56:40těmi statistikami a s těmi akumulátory že jo
0:56:45když _e bych totiž měl
0:56:47jednou promluvu
0:56:50tak _e by bylo celkem jedno jako jakým pořadí bych tady udělal tu sumu jestli
0:56:55bych šel napřed přesvědč k a
0:56:58jo no _e nebo přesčasy
0:57:01jestli bych si tady tohleto vyhodnotil nejdřív ten vršek vyhodnotil nevyrobit o jedno ale teďka
0:57:06si představte že máme opravu několik miliard trénovacích vektorů
0:57:10a každý průchod přes data něco stojí
0:57:13to znamená já opravdu _e teď
0:57:17pokud vám těch trénovacích promluv tolik
0:57:19tak pro ně využil toho že jsem si nadefinoval tady tyhlety pěkný statistiky akumulátorem a
0:57:26a vlastně na každé promluvě
0:57:29budu dohořívat
0:57:31do toho příslušnýho
0:57:32akumulátoru
0:57:34do toho nulu toho řádový ho
0:57:37prvního řádový ho
0:57:39a ji tady druhou řádový ho
0:57:42projedu ne pro jednu promluvu ale projede úplně všechny
0:57:46a teprve až to všechno skončí
0:57:49tak si udělám nový odhady _e příslušných parametrů jo to znamená když to všechno
0:57:55_e dokončím
0:57:57tak tom prvního řádovým akumulátoru budu mít čitatele
0:58:02no to řádovým akumulátoru budu mít jmenovatele _e prostě podělím a budu mít nový mean
0:58:08tady té druhé rovnici to budu mít trochu složitější protože jsem to ještě nebylo ale
0:58:14_e zase ze všech
0:58:16hodnot který budou mít k dispozici
0:58:18vypočítám příslušných teda ty howling jo a můžu valit další iteraci přes všechny data
0:58:25tak
0:58:26co to bylo asi _e šest co sem chtěl říci
0:58:30k _e
0:58:31trénování modelů
0:58:34kde se teďka na chvilku
0:58:36podívat S je na rozpoznávání
0:58:39no tak zvanej viterbiho algoritmu
0:58:43no jasně
0:58:44prosím
0:58:46_e nevím sestavte sme
0:58:51teďka poslední minutu představte musím
0:58:56no je
0:58:57historický
0:58:58ano sem číslo voznámit přednášky
0:59:01tak nějak
0:59:03items
0:59:07no a o tom _e mít von jako trošku
0:59:10lukáš není
0:59:12no ukážeme státech
0:59:14ví a neví kde to je
0:59:16_e
0:59:17volal mi neví jestli to máme dneska nebo jaké
0:59:21prosím jo
1:01:38tak dva tři
1:01:40nouzovým dost dobře možné se měl být na dvou místech stejný čas zahozen
1:01:45tak _e
1:01:47poďme prosím vás na rozpoznávání
1:02:31tak _e to rozpoznávání možná uděláme jako úplně _e úplně na papíře
1:02:38a
1:02:39a to následovně
1:02:41_e vzpomeňte si na výpočet a of
1:02:44jo a osy probíhaly tak
1:02:46že sme měli vlastně tady stavy modelu
1:02:50tady sme měli čas
1:02:52a teďka sme tam vlast příkaz neměli _e graf T těch různých _e stavových sekvencí
1:02:58který _e který vypadal
1:03:01tedy vypadá nějak takhle
1:03:03a my sme říkali že alfa je T
1:03:06že je vlastně jakési ohodnocení toho _e že
1:03:11sem v tomhletom _e stavu v tomletom čase
1:03:16a předtím sem byl kdekoliv a berou v úvahu všechny možné testy protože při výpočtu
1:03:22alfy se nám tam někde objevovala nějaká pěkná suma jo
1:03:26a říkali sme že když prostě jako takhle proběhne a posledním čase
1:03:30se ocitnu posledním stavu modelů tak saal alfa N
1:03:35_e T plus jedna protože času skončil ně bude udávat celkovou baumwelchovu
1:03:42_e likelihood vyslání možných dat _e tím celý modelem
1:03:48jo a uvědomíme si prosím až F alfy je
1:03:52se _e zohledněný všechny možné testy čili jsou tam sumy přitom výpočtu
1:03:58tak a teďka mě zkuste říci ne někdy když sem vám začal povídat o
1:04:03o
1:04:04_m skrytých markovových modelech
1:04:07bychom si mohli zkusit tipnout jak se spočítat ta likelihood P hvězdičkou
1:04:14R _e se říkalo viterbiho a která vlastně bude likelihood vyslání zase dát mi modelem
1:04:20a teďka bacha ne po všech možných cesta ale poté úplně nejlepší cestě
1:04:26tak zkuste tak nějaký návrh
1:04:36prosím
1:04:39bude počítat
1:04:42ale tak pozor tak já vám tam napíšu B vzoreček kterým sme tu alfu _e
1:04:47které sme tu alfu počítali jo
1:04:49takže alfa je
1:04:50ste se počítala jako všechny možný předchozí stavy Í
1:04:57_e jejich _e něj alfa
1:05:01a texture tam bude
1:05:04_e
1:05:06přechod sorry ste i mínus jedna pardon
1:05:12zda P T mínus jedna
1:05:15přechodová pravděpodobnost _e T je a současnej vyslání současnýho
1:05:23vektoru jo tak takhle jsem počítal
1:05:26takhle jsem počítal alfy tak mě zkuste říct
1:05:29_e jaká tam bude změna když budu počítat pouze s tou nejlepší cestu
1:05:36a poradíme to smazání jednoho symbolu a přepsání třeba písmenka
1:05:42no
1:05:43dobrý
1:05:45a nahradili maxem přesně tak
1:05:47jo
1:05:49takže jinými slovy když sme tady v tomhletom puntíku
1:05:53tak nebereme v úvahu
1:05:55obě dvě ty předchozí cesty ale berou v úvahu jenom tu kterou která je tlustší
1:06:00která mi dá lepší hodnotu a tu druhou prostě takhle kimonu neberu ji úvahou vůbec
1:06:05a zkuste si uvědomit analytik analogii T dynamickým
1:06:11_e borcení času dete dvojí béčkem
1:06:14my se vlastně úplně stejně byl jsem nějakým puntíků té _e matice jak se to
1:06:19menovalo
1:06:20částečných kumulovaných vzdáleností ne a teďka sem vlastně _e vybíral
1:06:25odkud se tam dostanu s největší
1:06:29pro s nejmenší možnou hodnotou
1:06:31to sem vybrala ty ostatní sem zapomněl
1:06:34jo tak N při výpočtu viterbiho se to bere naprosto stejně
1:06:39a když potom dojdu do posledního času a do posledního stavu
1:06:46tak _e
1:06:48budou mít
1:06:50tady
1:06:51vtom puntíku nikoliv baumwelchovu ale viterbiho pravděpodobnost té o M
1:06:58která bude vlastně maximum přes všechny možné stavové sekvence
1:07:04vyslání vektoru o po těchto stavových sekvencích akorát že to _e akorát že to rozhodnutí
1:07:13nedělám až na konci tedy jako když se podíváte na tu definici tak bych je
1:07:18měl vlastně jako všechny si vymyslet
1:07:21všechny spočítat a pak vybrat maximum a tady to míněním tady to maximum vlastně vybírám
1:07:27lokálně v každém stavu v každém čase a když dojde na konec tak už to
1:07:31maximum a motole
1:07:33jo takže to úplně přesně stejné jako při počítání
1:07:37_e D C dvojtečka
1:07:40_e prostě
1:07:42jak se řekne X hospic česky
1:07:45výčet vyčerpávající prohledávání všech možností sem nahradil
1:07:50_e výběrem ten nejlepší možnosti s každým uzlu mýho počítání
1:07:55tak
1:07:57a _e teď si pod dnem říct jak se tady tohleto dá implementovat co nám
1:08:02to totiž _e v nám totiž pomůže ještě dál implementuje se toho pomocí takzvaného tokenpassing
1:08:09a nebo u mě předávání půllitru
1:08:12a vlastně graficky se to mohli už vidět na těch _e lukášovi k animací které
1:08:17jsem vám tady předváděl _e které sem vám tady předváděl minule jo
1:08:22inicializace probíhá takže vožice prázdný půllitr do každého vstupního stavu modelu
1:08:28potom
1:08:29_e iterujeme
1:08:31kdy vlastně
1:08:33_e kdekoliv
1:08:35máme
1:08:36ten
1:08:38graf který se nám někam
1:08:40_e někam takhle sdělí
1:08:42_e sem
1:08:44vjeď ku teda
1:08:46sem miječku a sem _e sem čase to je
1:08:51tak pokud se mohu dostat do nějakého dalšího stavu F prostě ten půllitr vezmu
1:08:56a pošlu
1:08:58do každého s těch následujících stavu
1:09:02po cestě do toho půllitru dole ju
1:09:05logaritmus a
1:09:07příjde
1:09:09plus logaritmus to je vysílací pravděpodobnosti byl
1:09:12koncovém stavu
1:09:15a pokud se mi v nějakém stavu se jde více půllitru
1:09:20tak _e musím být kruťas a nechat jenom ten co má větší hodnotu adresoval menší
1:09:25hodnotu tak _e tak zabít nebo vy Y vyhodit rozpor
1:09:29tak
1:09:29teď prosím vás se mně řekněte jak je možný že tady najednou jako _e začíná
1:09:34začínám pracovat za S lokalit máma
1:09:38a že je to takhle jako jednoduchý a předtím když jsem počítal baumwelch je tak
1:09:41tam řádného velikými nebyly
1:09:45které se používají taky samozřejmě ale to je to složitější
1:09:49jak to že teďka si můžu dovolit tak jako projev pohodičce to všecko přepsat do
1:09:54logaritmu
1:10:03tam zkusím
1:10:04přehodit _e ty zápisky
1:10:06zkuste se podívat _e na původní stav tady tento
1:10:10tady této rovnice
1:10:15u
1:10:19tak
1:10:20já tam suma
1:10:21logaritmu je se suma dobře
1:10:24teďka tam suma není
1:10:27teďka je tam _e k
1:10:33a najednou jako je to všechno bezvadný protože vidíte že v této _e v této
1:10:39rovnici není jedinej součet
1:10:41sou tam pouze součiny
1:10:43a součin se krásně převádí prostě na logaritmy takže když si
1:10:48jenom napíšete log tady přes to všechno takže to log _e je T rovná se
1:10:53_e sorry teďka už tam nejsou alfy protože _e vitter bod viterbiho částečný
1:10:59pravděpodobnosti většinou _e značíme jako _e skorkov íčka
1:11:04takže log svíjet E bude má
1:11:08to je todle dobrý potom je tam C E
1:11:12_e té
1:11:13mínus jedna
1:11:16co tam mám sandál
1:11:18plus že jo plus logaritmus _e
1:11:21a je
1:11:24plus logaritmus
1:11:26B
1:11:27je
1:11:29no C
1:11:32jo takže v pohodě to přepíšeme _e a implementujeme to V logaritmy
1:11:38tak to probíhá
1:11:39rozpoznávání a pak prosím vás jako když přicházejí vstupní vektory
1:11:44tak _e necháme _e C modelem pro lítá what _e pro lítala půllitry
1:11:49_e když dojde na konec
1:11:52tak jenom musíme vlastně zařídit aby se ten půllitr _e dostal ostrého _e z toho
1:11:57mého
1:11:58toho mého modelu
1:12:00to znamená _e mám tam nějaký _e poslední
1:12:05poslední vektor
1:12:07poslední stav modelu
1:12:10a abych ten půllitr dostal ven tak vlastně jenom
1:12:14takže sem vám říkal když i muži _e
1:12:17se
1:12:27to je vše co se nemá rádo
1:12:30tak
1:12:31když mám vlastně tady _e tady ten graf
1:12:34a _e tady je poslední opravdický čas ste
1:12:38a je tam poslední vysílací stav modelu tak já mám vlastně poslední krok který musím
1:12:43učiniti
1:12:44a toho s toho modelu vylézt
1:12:46a lezu ven o logaritmické _e pravděpodobnosti a
1:12:51N
1:12:52mínus jedna
1:12:53_e jedna to je prostě ta úplně
1:12:56je to úplně poslední
1:12:59a ten _e půllitr který odeberu tady na konci
1:13:06mě prosím udává
1:13:08logaritmickou viterbiho pravděpodobnost vyslání sekvence vektorů tím modelem po nejlepší možné cestě
1:13:17tak
1:13:19_e
1:13:21teď prosím
1:13:27zase vypomůžu tady tohoto prezentaci
1:13:30skutečně mu
1:13:32pro s tomu ty
1:13:33mediální představení
1:13:35a
1:13:38chtěl bych abychom se vrátili
1:13:40_e vůbec tomu
1:13:42původním problému rozpoznávání co je naším úkolem
1:13:47naším úkolem je
1:13:49rozpoznat když máme tady na vstupu nějakou promluvu
1:13:55nějaký slova třeba jest nebo know bysme se teďka naučili
1:13:59vyhodnocovat
1:14:00tady tuhletu pravděpodobnost že sekvence vektorů byla produkována modelem slova je s
1:14:08anebo že sekvence vektorů byla produkováno modelem slovanů
1:14:12teď smím úkolem je rozpoznání vlastně co
1:14:15co udělat
1:14:17aby ty slova rozpozná tak my si tady tyhlety dvě pravděpodobnosti nebo likelihoody můžeme vyhodnotit
1:14:22co myslíte že sou tady _e že sou tady ty hodnoty P je saténu co
1:14:27to je
1:14:30vidíte z nich nějaký data
1:14:33vstupní nějak i
1:14:35jako promluvte rabicka přišla
1:14:38no jo ale já se ptám jako tady na toto na té jestli naplněnou jestli
1:14:42to vidíte v nich
1:14:45ne
1:14:46v tom žádný nastane jsou to znamená P je schopen O sou jaký pravděpodobnosti
1:14:52apriorní super
1:14:53a jaký by bylo takový jako unk třeba doporučení
1:14:57jak je nastavit
1:14:59půl přesně tak jo pokud člověk jako nechce
1:15:03před přiklonit ani jednou ani k druhýmu tak by bylo dobrý jeden a půl
1:15:07takže _e tenhleten modýlek vyprodukuje jedno číslo
1:15:11to je vono krát půl tahle modýlek vy po roku je druhý číslo to je
1:15:15vono krát půl no a teďka prostě když to čísílko je větší tak řeknete že
1:15:20to bylo jestli bych tohle větší tak řekne ze když to bylo know
1:15:24tak
1:15:25_e teď prosím vás ale bychom mohli možná si to dělat něco chytřejšího
1:15:31a to chytřejší bude rozpoznávání _e spojitých šlo
1:15:38jo nějaká promlouvá která _e
1:15:41třeba bude mít _e za úkol rozpoznávat sekvence slov kočkopes
1:15:47vo může být slovo kočka může být slovo pes
1:15:50a ona by nám _e když řeknete kočka kočkopes
1:15:55tak by měla
1:15:56přesně
1:15:57přepsat co ste řek
1:16:00tak
1:16:01očekávám vaše návrhy jak to budem dělat
1:16:05nebo mí nebyl ní příklad když se to dělat třeba vytáčení telefonních čísel hlasem
1:16:10jo máme čísla prostě vod nuly do devítky křížek hvězdička
1:16:14to číslo může mít
1:16:15op
1:16:16_e nevím očistit do
1:16:18deseti
1:16:19čísílek
1:16:21a vy máte rozpoznat
1:16:22jak to udělá
1:16:28nemáme se
1:16:30to by bylo jednoduchý K ale nemáme
1:16:39jo takže rozpoznávání spojitých
1:16:43spojených slov
1:16:50a kolik ano survey zapojíme ale jakým
1:16:53přesně výstup na vstupu děláme takovou smyčku
1:16:56kde _e řeknem
1:17:00_e kde řekneme
1:17:03dobrý
1:17:04_e když _e bude to funguje to standardní skrytý markovův model akorát že bude trochu
1:17:10složitější budou tam lítat _e ty piva do kterých se bude do líbat tady kliku
1:17:16a když nějaké pivo
1:17:18vypadne tady toho posledního stavu
1:17:21tak se vrátí
1:17:23do prvního stavu zase se prostě ostrov split ne
1:17:27no všech možných _e modelu
1:17:29a může se pokračovat dál
1:17:31tak a teďka akorát si uvědomte E s
1:17:35tady budeme mít prostě teda tu krásnou promluvu
1:17:39vod do
1:17:42která se mi
1:17:43převede do _e do sekvence
1:17:47vektoru s akustickými parametry že jo tady bude čas jedna tady bude časté
1:17:53a _e
1:17:58tady bude časté _e teďka co uděláme
1:18:03co uděláme v čase T když ta promluva skončí
1:18:09no právě tak tady v tomhletom posledním stavu modelu
1:18:13budeme mít takovýhle velký škopek
1:18:16S pravděpodobnosti
1:18:18logaritmickou která bude třeba mínus šest tisíc osum set sedmdesát dva
1:18:24tak a teď mně řekněte jestli jako sme
1:18:27epic tady s tímto výsledkem nebo ne
1:18:40asi na jeho protože když sme měli izolovaná slova
1:18:43tak sem tam měl dva různý modely jeden byl na kočku druhý byl napsat každý
1:18:48mně dal nějaký ohodnocení já jsem ta ohodnocení srovnala to co bylo vyšší tak vyhrálo
1:18:53a rozpoznal
1:18:54teďka je to takový zlý protože já mám jenom jeden model
1:18:59potřebujeme trasu klimat došlo a jak by se teďka _e to zařídili co
1:19:04co takhle
1:19:08že dobrý ale pozor já vám to začne trochu vrtat maximum se vlastně vybíralo třeba
1:19:15tady
1:19:17teďka tady
1:19:19maximum se vlastně vybírat po každým stavu
1:19:23tak _e budeme vopravdu jak of bude chtít maximum
1:19:30tak perfektní že těch děkuju je to naprosto přesně tak mi vlastně musíme _e kontrolovat
1:19:37těžko píky který nám tady během token pásy nebo pivo passing algoritmu vycházejí tohoto stavu
1:19:43a pamatovat si jaké sou odkud vylezli
1:19:47jo když to když to řeknu _e jednoduše to znamená my tady doplníme nějaké
1:19:53pseudo stavy
1:19:54ten _e nebudou generovat žádné pravděpodobnosti
1:19:58ale budou zodpovědné za to
1:20:01že na ten škopek
1:20:02který poletí zatím čtverečkem
1:20:05se napíše
1:20:08_e se napíše identita toho slova _m odkud _e odtud odkud ten škopek bylo to
1:20:14znamená tady nissan absolvován
1:20:16tady by se napsalo na nějakou kartičku tu a tak dále a samozřejmě tady ta
1:20:20červená čára potom s těch škopku vybere _e vybere jeden
1:20:25terry přežije
1:20:26a který se vrátí na vstup
1:20:28ale už bude mít na sobě kartičku a na té bude napsáno že _e že
1:20:33_e vyletěl veslovat u
1:20:35jo takhle to bude skutečně se všemi škopky které nám tam budou říkal s našim
1:20:39algoritmu
1:20:41a až nakonec
1:20:43vypadne ten velký škopek
1:20:45který bude mít
1:20:48svou
1:20:49likelihood která nám vůbec nevadí která nás moc nezajímá
1:20:53tak bude mít prosím tak je
1:20:55popsanou kartičku identitami slov
1:20:58ve kterých V lítal jo a tady tohle
1:21:01je prosím
1:21:03to co
1:21:04to se potřebuju
1:21:08tak _e jinak tak ať íčka
1:21:11to se N řeší tak může vlastně každý token nebo každý škopek má na sobě
1:21:16nějakou struktura strukturu která sem nebral klink rekord
1:21:20wall or
1:21:22a při průchodu těmi čtvr a ty mi stavy se do té struktury něco napíše
1:21:26jo ale to budete potřebovat až kdybyste chtěli něco takového implementovat
1:21:31tak že jo takže tady je _e v je to
1:21:35zobrazeno
1:21:37tak prosím vás kornetistka rozpoznávání ještě trošku
1:21:41že trošku dále
1:21:43tady je vlastně _e
1:21:45s obrazem ten _e ten případ kdy sme měli _e kdy sme měli teda rozpoznávání
1:21:51dvou různých slov
1:21:54S možností vracení začátek
1:21:58s tím že tady budu mít i _e stavy které vlastně mejdlo jí procházející token
1:22:04i nebo škopky a dávají jim jak identity
1:22:08tak _e tetě
1:22:11prosím _e se poďme trochu podívat zpátky na natrénováním modelů
1:22:17no jasně
1:22:26no
1:22:36_e vona tam většinou ani nebývá to mezerami číslo ale takhle uvědomte si že tím
1:22:40že tou čárkou poslední červenou
1:22:43tady tímhle tím stavem
1:22:45že projít _e jeden škopek _e s každým s každým frameu
1:22:49jo to znamená každý čas každých deset milisekund tam letí jeden škopek není to tak
1:22:54že by tam jako letěl jeden jako po konci slova mi ani nevíme kde konec
1:22:58toho slova je jo to znamená každých deset milisekund automata s tam letí škopek
1:23:04a jsem
1:23:08ano
1:23:09ano to se rozskokové na dalších devět
1:23:12a je to také krok pozor tady toto jednoduchý příklad kde opravdu se trošku pokovená
1:23:17dalších devět
1:23:18a všechny škopky dokážeme udržet paměti že děláte nějaké rozpoznávání s velkým slovníkem
1:23:25který má z dejme tomu padesát tisíc slov a všechny slova sou mezi sebou propojeny
1:23:30ještě nějakým a jazykovým a pravděpodobnostma ke kterým se dostanem
1:23:34tak tam všechny škopky nedokážete držet paměti o tom se potom musí dělat nějaký pruning
1:23:38vy vlastně řeknete budu mít s každým čase aktivních jenom tisíc škopku a všechny ostatní
1:23:44prostě wiki rujete _e a nenecháte dál žít a budete propagovat jenom těch tisíc aktivních
1:23:50jo to toto jako vopravdu je potřeba pak při velký rozpoznávačích řešit
1:23:55tady bysme se dokázali představě že ty škopky opravdu lítají s každým čase každým stavu
1:24:01všude
1:24:03a teďka si jenom uvědomte když tady je slovíčko ován
1:24:08tedy _e který trvá já nevím _e který trvá půl
1:24:14_e
1:24:15půl sekundy jo
1:24:18za jak dlouho tady tohle stavu vylítne první škopek
1:24:23ne
1:24:26ano takže po štvrtým jo po štvrtým _e stavu
1:24:30už tady tento model začne vyhazovat
1:24:33začne vyhazovat open i
1:24:36jo ale
1:24:37jejich kvalita nebude nic moc
1:24:39protože vlastně se mi
1:24:42čtyři vektory které jsou tady na začátku natáhnou na čtyři stavy který mají reprezentovat úplně
1:24:47jiný lásky to znamená
1:24:50budou to nějaký hrůzy
1:24:52když se budete ale ten moc model vopravdu bude produkovat
1:24:56token každej deset milisekund jako mašinka hodin
1:25:01když se budete blížit konci tady tohoto slova
1:25:06tak že toho modelu začnou vyhledávat kvalitní škopky
1:25:11proč
1:25:12protože prostě je sežer a vy si správný stavy tohoto modelu
1:25:18to znamená budou to škopky který budou mít dobrý hodnoty
1:25:22a když se potom _e dostanou dál do toho C E a budou se srovnávat
1:25:27trošku kam a který vlítnou vodsaď tak budou mi hod naději na to že to
1:25:32tady tyhlety škopky přežijou
1:25:34no a potom pojedou dál prostě do _e do mlýnice a pak se to stejný
1:25:39zopakuje druhým slovem a tak dál a tak dál
1:25:42jo to znamená _e to _e to rozhodnutí
1:25:47jak jsem měl vlastně ve své promluvě nasegmentovaná slova jestli to bylo prostě vo vánoci
1:25:52_e stáhneš
1:25:55a tady mezi nima byly nějaký hranice takto neděláte během toho rozpoznávací v algoritmu
1:26:02ale dělat do až na konci protože se podíváte na kartičku
1:26:06S líbila má která je na tom úplně posledním vyhrávaj tím skok
1:26:11jo a děkuju tohleto byla velice dobrá otázka řekl
1:26:15tak _e poďme se teďka podívat
1:26:18jak to bude trénováním
1:26:20_e modelu nějaký složitějších _e když třeba nebudu mít rozpoznávač tady jako hle tady nějakej
1:26:28dvanácti číslo vek ale
1:26:31padesáti tisíc slov
1:26:33což je takovej standard pro angličtinu pro češtinu tak tři sta tisíc slov aby to
1:26:38trošku fungoval
1:26:39tak jak si myslíte že budem trénovat
1:26:42zase jako aby model stálo za to
1:26:45tak potřebuje mít k sobě aspoň
1:26:48deset ale radši sto
1:26:51trénovacích promluv
1:27:07jo tak
1:27:08představte si že budu mít natrénovat takovédle rozpoznávače teďka jako sto musím sehnat samozřejmě nějaký
1:27:14data
1:27:16a _e
1:27:17u straně popovídat tak bity data měli vypadat
1:27:24tak _e kdyby tady šlo nějaký kraviny jako třeba _e číslovky jedna nebo slova pes
1:27:29počkat tak byste možná našli data nějaký zprávy nebo já nevím kdyby se slovo pes
1:27:34objevovalo sto krát
1:27:35kočkami tom taky oblast okna to znamená měli bychom šanci
1:27:39_e tady tyhle modely natrénovat
1:27:42teďka
1:27:44_e vy tam byste ale chtěli aby to dobře fungovalo i na slova to kůlny
1:27:49o ne jiné obhospodařovat silnějšími
1:27:52a to byste možná jako prošli celý archiv české televize _e celý rok a to
1:27:55slovy se tam našli jednou nějakým zábavným pořadu
1:27:59a na takovým slovy byste natrénovali velmi špatný model
1:28:03na jednom takže
1:28:04X na to pude
1:28:15jo teďka de o to abysme postavili modely na který budu mít dost trénovacího materiál
1:28:25_mhm není sou drazí
1:28:27nech nechci dělat
1:28:29a to rozpoznávač teda za týden nemůžete nemodlí
1:28:39_e
1:28:40na to byste možná právě to celkové rozpoznávač tak _e řekl určitým nentek
1:28:44velice slepice problém _e tak jako musíme to rozsekána menší jednotky ne když nepůjde natrénovat
1:28:51model na slovo pes a na strana tým jako na S _e na kočka půjdou
1:28:57ale na ty složitější slova nepůjdou takto budeme
1:29:00hned rozdělit na nějaký jednotky a udělat jednu udělat modely tady těch malých jednotek
1:29:05a s tohoto potom poskládat a co myslíte jak jednotky tak asi budou
1:29:11jsme na přímo na jako základní zvuky řeči souhlásky že jo nebo fonémy sečtu budou
1:29:16modely fonémů tak _e to bude vypadat tak
1:29:19když budeme chtít udělat slovo je s
1:29:22tak tam bude model
1:29:25fonémů že jo
1:29:26_e
1:29:27S
1:29:29a dohromady
1:29:30tam to bude tvořit slovo je
1:29:33my vlastně zřetězením _e tady těch tři modelů dostaneme zase normální markovův model
1:29:40a s toho potom budeme moci ty slova
1:29:43kdy skládat jo to znamená _e
1:29:46pokud chceme udělat jo rozpoznávač tak takový velice užitečné je slov ován trumfli
1:29:52tak to bude vypadat nějak takhle u vána čudu
1:29:56vy
1:29:57tak tady zase vidíme E volby
1:30:01link node i
1:30:03který má když provalí nějakej token
1:30:06tak _e tak se to méně napíše
1:30:09a pak to může jít tedy pěkně
1:30:11na začátek
1:30:13tak a co si myslíte že sou tady ty pí one kýtu a P s
1:30:16V
1:30:21zase jsou to nějaký pravděpodobnosti že jo
1:30:23ale sou to pravděpodobnosti který nevidí žádný vstupní data žádný akustický vektory
1:30:28toho že něco se generuje podle akustických vektoru je schovaných těch
1:30:32těch kolečka
1:30:35tak
1:30:36asi
1:30:37tam pořád na stejný věci to sou nějaký pravděpodobnosti že jo jaký
1:30:41apriorní jako
1:30:43tak takhle jako že bychom dávali apriorní pravděpodobností nějakým izolovaným slovům to asi nebude _e
1:30:49moc _e moc nutný nebo
1:30:52jako nebude to moc užitečný
1:30:55ale už si můžeme _e zkusit představit
1:30:58že budeme dělat něco složitějšího
1:31:01a tam budou chtít _e za drát ovace vztahy nebo pravděpodobnosti mezi těmi danými slovy
1:31:09jo podmíněnou pravděpodobnost
1:31:11slova tu
1:31:13když předtím bylo rozpozná viny slovo one
1:31:17podmíněnou pravděpodobnost slova Q když předtím bylo rozpoznaný slovo tu a tak dál
1:31:24tady tohle _e se menuje
1:31:27bigramový jazykový model
1:31:30digram proto čtem vlastně mám dvojice slov
1:31:33na nichž počítám jak i pravděpodobnosti
1:31:37a zase jako _e rozpoznávači slov u want úsilí
1:31:41nám to asi moc nepomůže ale teďka si představte že _e rozpoznávat E s řeč
1:31:47s velkým slovníkem
1:31:49a teďka tam máte prostě _e akustika nebo
1:31:54to je tyhle vlekli užitých těch more kolečka si nejsou moci sty jestli tam bylo
1:31:59slova _e slovo prezident _e prezident václav klaus sálem nebo prezident pačes plavu
1:32:09jo a tady už asi
1:32:11cítíte že nám ty jazykový pravděpodobnosti nějaký bigramy
1:32:16můžou pomoct protože podmíněná pravděpodobnost slova václav
1:32:22když předtím bude prezident bude asi docela velká podmíněná pravděpodobnost klaus když předtím bylo václav
1:32:29bude asi taky docela velká když to ty vostatní budou asi docela malý
1:32:34tak kromě zkuste říct _e kde se tady tyhle pravděpodobnosti podmíněny vezmu
1:32:41si
1:32:43_e noviny jo ale jak jaké budu počítat
1:32:52no
1:32:53no přesně tak za rok dokázali bysme napsat nějakym vzoreček třeba když jako mám u
1:33:00podmíněnou pravděpodobnost _e
1:33:03_e slova
1:33:05klaus
1:33:06když václav
1:33:10tak zkusíme sme na dohromady _e
1:33:13jak by se to dalo vyhodnotit
1:33:15na velkým korpusu no novinových dat
1:33:34no přesně tak
1:33:35jo takže normy tam vlastně k aut
1:33:38já to budu značit takovým a tím křížkem count
1:33:41slov
1:33:42václav
1:33:44klaus prázdné slovo ale sousloví takhle jo
1:33:48lomeno count M
1:33:50_e václav no a
1:33:52příklad za naprosto přesně
1:33:54takhle se skutečně o rádio u _e pravděpodobnosti digramu je to zase jako samozřejmě a
1:34:00pak byste to mohli rozšířit na trigramy for gramy a tak dále ten tohleto schémátko
1:34:06už tam bylo
1:34:07o něco _e složitější
1:34:10a jen jenom tak jako zkusíme ťuknout to si myslíte že tady u těch jazykový
1:34:14modelu bude trochu problém
1:34:17N provede ta jasný ale člověk jich jako dycky někde může stáhnout nebo nakoupit nebo
1:34:24_e na webu je spousta dat srandovní
1:34:30můžou být neaktuální toto ve velice dobrý když třeba rozpoznávat _e nějakou novou doménu
1:34:35těch _e i třeba bysme tady dělali přednáškový systém na sítko
1:34:39tak sme měli nějaký jazykový model který byl udělaný na obecnej českých datech jo jakým
1:34:44pražský mluvený korpus brněnský mluvili korpus
1:34:47další korpusy
1:34:50moc to nefungovalo
1:34:51jo takže museli jsme vlastně vzít doménový data
1:34:55chlapci chrousta vy všechny studijním
1:34:58podpory které jsou tady k dispozici na fit ku
1:35:00a napočítali z nich _e jazykový model _e se potom vlastně smíchal v interpolováno s
1:35:07tím standardním českým a začalo to nějak fungovat tak že tady toto je dobrý ale
1:35:13eště další problém
1:35:15co třeba když budete rozpoznávat větu
1:35:18_e
1:35:19umřel mýmu limon či část macourek
1:35:23a v životě se trénovacích datech neviděli spojením on syčák macourek
1:35:31jo když to vezmete čistě _e čistě pravděpodobnostně a procházeli byste tady takovouhle
1:35:36takovouhle sítí
1:35:38tak tam prostě budka spojnice mučíš a macourek vůbec nebude anebo tam bude admit bude
1:35:43mít hodnotu nula
1:35:45a tím pádem tady tato věta nemůže být nikdy
1:35:49rozpozná
1:35:50tak _e kdybyste na to šli
1:35:55_e dobře jako konstantu jo ona se používají takový techniky jako tak zvaný B kofein
1:36:02_e backoff _e jako ústup nějaké pozici jo takže já bych chtěl
1:36:06hodnotou by gramům on či část macourek ale já je nemám protože sem neviděl trénovacích
1:36:11datech takže můžu ustoupit o krok zpět
1:36:14a říct tak teraso ryby gram nebude tak bude aspoň ne gram
1:36:19a _e možná že už sem viděl nějakou pravděpodobnost _e slova macourek
1:36:25jenom toho jednoho slova
1:36:27já už samozřejmě dokážu navazovat nějakou pravděpodobnost _e nějakou konstantou a použiju místo B gramu
1:36:33pravděpodobnost tady tohle mikro mu jo
1:36:36o tom jako když byste chtěli vědět tak se přihlaste
1:36:39_e pavlas marže do zapojil zpracování přirozeného jazyka
1:36:43protože tam se tady tydle vědy docela _e docela dělají dobrý takže jako víme jak
1:36:49by v zhruba fungovalo
1:36:51_e rozpoznávání
1:36:53_e tady s těmi _e s těmi foném ovými modely a trošku sme si řekli
1:36:59vo jazykových modelech
1:37:00a možná dokonce přednášky se poďme pobavit potom
1:37:05jak by se takový fonému V modely
1:37:08dali natrénovat
1:37:10tak já vám řeknu _e co typicky bývá vstupem
1:37:14takovýhle trénování
1:37:19_e
1:37:23true
1:37:28no domluvit se tady zmizet je to dole
1:37:33tak
1:37:36_e vstupem trénování
1:37:38vopravdu rozpoznávače s velkým slovníkem který je založený na fonémech
1:37:43bývá třeba sto tisíc wavek
1:37:50jo tady nebudu malovat všechny ale prostě
1:37:54vždycky wavka a u toho máte textově zapsány _e co je vevnitř
1:37:59takže
1:38:01ahoj ferda
1:38:03tak je tam další _e wavka
1:38:05a tam je prostě mravenec šel nakoupit semestru takové _e znáte ke každé masce
1:38:11textové předpisy
1:38:13a naším cílem je zeť _e při
1:38:17trénování
1:38:19mít
1:38:20sadu modelu
1:38:22_e tady je prostě modýlek pro písmenko a tady je modýlek pro písmenko B
1:38:30a tak dále náš pro písmenko Z
1:38:33a každým to modeluje samozřejmě střední hodnota a nějaký ty směrodatný odchylky a tady jsou
1:38:39nějaký ty přechodový
1:38:42pravděpodobnosti jo
1:38:44tak mi z asi před chvilkou ukázali jak tady toto perfektně zvládneme
1:38:48když mám jednou promluvu mám jeden model o kterým víme že _e budu na té
1:38:55promluvě trénovat
1:38:56a pak sme si tam prostě nadefinovali nějaký jako L je se to magický čísílka
1:39:02pomocí zalijete sem to všechno zvládnu
1:39:05a teď tě
1:39:06sme poněkud těším
1:39:08případě
1:39:10kdy mám velikánskou databázi dat
1:39:13máme ke každé vase textový přepis a to je všecko
1:39:18tak zkuste poradit
1:39:21co bude
1:39:30tak _e první _e první etapa
1:39:35eště docela jednoduchá bude tak zvaný ditu P
1:39:39grapheme to phoneme neboli převod slov
1:39:43na fonémy
1:39:44v češtině tady tohle docela v pohodě toto vlastně bych si mohl klidně přímo přepsat
1:39:50do fonému
1:39:51F _e rodeo tady bych _e třeba
1:39:57jo sem _e
1:40:03hrát
1:40:04tak tady by to bylo trošku složitější že jo takže byste to
1:40:08_e museli přepsat doméně L
1:40:12asi by tam bylo polknu T mělo sem
1:40:16S
1:40:17_e hra to ale prostě nějak pomocí slovníku nebo pomocí nějakých pravidel bychom tady toto
1:40:23zvládli to znamená ke každé promluvě teď mám sekvenci fonémů
1:40:30a nevím kde které je
1:40:32to znamená takový nápad jako že bych třeba vysekal s těch wavek
1:40:36jako úseky který odpovídají písmenku S
1:40:41jo vysekal bych to ze všech sto tisíc wavek a pak bych na trénoval model
1:40:45S při předem zamítá
1:40:49potřebujeme nějakou techniku která se dokáže vyrovnat s nesegmentovaný má trénovací má data
1:41:01no
1:41:02no toto do začíná vypadat dobře
1:41:06takže _e já si T asi tady
1:41:09udělám nějakou _e nějakou jednoduchou promluvu
1:41:13dejme tomu
1:41:15dejme tomu P
1:41:23_e a pak by měl další moc _m promlouvat tam by bylo klepe jo
1:41:31takže já si skutečně u téhle promluvy
1:41:34vezmu
1:41:36model
1:41:37_e
1:41:38_e a spojím je do jedno alenka a uvědomíme si prosím vás že vevnitř ty
1:41:44modely fonému vypadají takhle že prostě každý má nějaký ty stavy _e nějaký přechody pravděpodobnosti
1:41:51jo takže tady tohle bylo by bylo to je to _e
1:41:54a u další promluvy bych zase _e udělal _e spojení modelu K
1:42:01_m
1:42:02_e
1:42:03_e
1:42:04_e
1:42:05jo každej tady těchto modeluje normální korektní allen
1:42:11teďka budu předpokládat že jejich _e že jejich _e
1:42:14ne _e slušnej rozšířit jo je _e
1:42:18že jejich _e parametry jsou nějakým způsobem inicializovaný
1:42:24a já ta tak jak sme si to říkali tak si můžu klidně
1:42:28u každýho s těchto _e těchto modelů vyhodnotit
1:42:34ty měkké rozhazovat si pravděpodobnosti
1:42:38který mě budou dávat jak bude který _e jak bude který
1:42:45_e vektor náležet
1:42:48kterému stavu
1:42:50tady těchto
1:42:53těchto modelu
1:42:54jo
1:42:56a teďka pozor
1:43:00nebudu tady mít
1:43:02_e tento stav
1:43:06a tento stav který budou různý
1:43:08ale protože sou to stavy který pochází z S T ze stejnýho foném ku tak
1:43:13už budou vědět že tady tohleto je ten
1:43:16stejný stav
1:43:18tím pádem
1:43:20_e pro ty červený
1:43:21she pečky to znamená pro první stav
1:43:24modelu pro
1:43:25ta funkce L je _e já vám tam napíšu třeba L P jedna T
1:43:31bude vypadat nějak takhle začátku hodně pak málo tak
1:43:38tak tady zase bude
1:43:40a tady zase nic jo
1:43:42takže takhle sem vyhodnotil _e jednu funkci
1:43:47_e jednu funkci _e
1:43:50s mi říkali state occuppation likelihood tady tohle prvního stavu tohoto modelu na této promluvě
1:43:57no ale já si tady toto samozřejmě udělám i na všech ostatních promluvách jo takže
1:44:02takže _e teď prosím
1:44:05si vezmu
1:44:07_e teď si vezmu
1:44:09další promluvu kde slovo klepe
1:44:13jo
1:44:14a
1:44:16na tom slově klepe
1:44:18udělám to sami
1:44:20zase pro ten stejný ne stroj
1:44:24protestem samý stav tohodle modelu
1:44:27je to vyjede
1:44:29někde
1:44:30někde tady
1:44:31jo a prosím vás tady tyto _e tyto funkce si uděláte pro všechny stavy vašeho
1:44:37von nemovi ho
1:44:38zvěřince
1:44:40a potom _e jenom naznačit že když budeme neodhadovat
1:44:45tak si prostě vezmu všechny
1:44:48parametry tady téhleté
1:44:51promluvy
1:44:53a samozřejmě budu updatovat
1:44:56příslušný akumulátor tady k tomu tomuhle stavu asi si dokážete představit že tady těchto pár
1:45:02vektoru se uplatní protože budou váženy touto vysokou hodnotou těchto pár vektoru se uplatní
1:45:08a ty ostatní se neuplatní jo
1:45:12a potom si vezmu další promluvu a zase ten na tom akumulátoru se budou podílet
1:45:16vektory které jsou tady po tímto kopečkama ty ostatní se neuplatní
1:45:21a takhle si projedu všech svých sto tisíc trénovacích promluv
1:45:26budu mít akumulátory
1:45:29_e nultého prvního druhého řádu
1:45:33pro já nevím čtyrycet tři fonému krásy stavy takže budují mít nějaký sto
1:45:38sto dvacet nebo sto dvacet devět
1:45:41pro si všecky trénovací data na konci vezmu
1:45:45těhletěch sto dvacet devět akumulátoru a spočítám z nich nový parametry
1:45:50svých stavu
1:45:51jo a kouzlo na tom je takové
1:45:55že skutečně
1:45:56_e na začátku toho trénování vůbec nemusím tušit kde ty které fonémy jsou
1:46:04když uděláte prvních pár iterací _e tak samozřejmě si to sou ty fonémy rozdíly nějak
1:46:09rovnoměrně ale to totální hallův
1:46:12ale pokud se podíváte na ty funkce zalijete tak zjistíte že po pár iteracích skutečně
1:46:18si ty funkce L je to je přesně najdou ty své foném ty datech cache
1:46:22až by člověk řekl že to je prostě nějaké kouzlo ale není to kouzlo je
1:46:26to vobyčejný to vobyčejný baumwelch
1:46:29a _e
1:46:31optimálně si to ty
1:46:32modely takle nastaví
1:46:34jo takže _e
1:46:36samozřejmě se tam potom musí jako řešit
1:46:39další různé věci jako jak to optimalizovat jak to počítat C E
1:46:45_e tak abyste nevyjeli dynamiky
1:46:48kterou máte na počítači k dispozici a teda ten _e ale ta základní dále vopravdu
1:46:53velice jednu
1:46:54ano ve
1:46:56konec přednášky příští pondělí si pěkně už víte
1:47:01_e _m prosím vás nejezděte dopravními prostředky
1:47:05jakými to se řídí
1:47:06příští pondělí
1:47:09a uspokojit ze silnice a uvidíme se za dva týdny na poslední přednášce
1:47:14a na numerickém cvičení večerním