Következtetés a látás állapotáról, A vakítás okai
Következtetés időbeli modellekben Egy általános időbeli modellstruktúra kidolgozása után, most már megfogalmazhatjuk a megoldandó alapvető következtetési feladatokat: Szűrés filtering vagy ellenőrző megfigyelés monitoring. Ez a bizonyossági állapot belief state kiszámításának a feladata — ami a jelenlegi állapot feletti a posteriori eloszlás, az adott időpontig vett összes bizonyíték ismeretében.
Az esernyős példában ez az aznapi eső valószínűségének a kiszámítását jelentené, az esernyőhordozó eddigi összes megfigyelésének az ismeretében. A szűrés az, amit egy racionális ágensnek el kell végeznie ahhoz, hogy a jelenlegi állapotot követni tudja, és így racionális döntéseket hozhasson lásd Kiderül, hogy majdnem azonos számítás szolgáltatja a bizonyítéksorozat megfigyelésének a valószínűségét likelihoodP e1:t -t.

Előrejelzés prediction. Ez egy jövőbeli állapot feletti a posteriori eloszlás kiszámításának a feladata, az adott időpontig vett összes bizonyíték ismeretében. Az esernyős példában ez jelentheti az eső valószínűségének a kiszámítását három napra előre, az esernyőhordozó eddigi összes megfigyelésének az ismeretében. Az előrejelzés hasznos a cselekedetek lehetséges sorozatainak a kiértékelésében.
Simítás smoothing vagy visszatekintés hindsight. Ez szem-látás helyreállítása múltbeli állapot feletti a posteriori eloszlás kiszámításának a feladata, a jelen időpontig vett összes bizonyíték ismeretében. Az esernyős példában ez jelentheti az eső valószínűségének a kiszámítását múlt szerdára, ha ismerjük az esernyőhordozónak a mai napig történő összes megfigyelését. A visszatekintés az állapotnak egy jobb becslését adja, mint ami akkor elérhető volt, mivel több bizonyítékot használ fel.
Legvalószínűbb magyarázat most likely explanation. A megfigyelések egy sorozatának ismeretében lehet, hogy szeretnénk megtalálni azt az állapotsorozatot, ami a leginkább valószínű, hogy az adott megfigyeléseket generálta.
Azaz szeretnénk kiszámítani az P x1:t e1:t értékét. Például ha az esernyő feltűnik az első három nap mindegyikén, és hiányzik a negyediken, akkor a legvalószínűbb magyarázat az, hogy az első három napon esett és a negyediken nem esett. Az erre a feladatra szolgáló algoritmusok számos alkalmazásban hasznosak, ideértve a beszédfelismerést — ahol a cél a szavak legvalószínűbb sorozatának a megtalálása hangok sorozatának ismeretében — és egy zajos csatornán továbbított bináris szekvenciák rekonstrukcióját.
Ezeken a feladatokon túl szükség van még módszerekre az állapotátmenet- és érzékelő modellek megfigyelésekből történő megtanulására.
Csakúgy, mint a statikus Bayes-hálóknál, a dinamikus Bayes-hálós tanulás elvégezhető mint a következtetés mellékterméke. A következtetés egy becslést ad arra, hogy milyen átmenetek következtek be valójában, és milyen állapotok generálták az érzékelők értékeit, és ezek a becslések felhasználhatók a modell frissítésére. A frissített modellek jobb becsléseket következtetés a látás állapotáról, és a folyamat a konvergálásig iterálódik.
A teljes folyamat a várhatóérték-maximálás vagy EM algoritmus egy esete lásd Figyelemre méltó részlet, hogy a tanulás teljes simítós következtetést igényel szűrés helyett, mivel ez hogy erősítse a látás vitaminokat becsléseket ad a folyamat állapotára.
Lehet, hogy a szűréssel való tanulás nem konvergál helyesen; gondoljunk például a gyilkosságok felderítésének a megtanulására: a visszatekintés mindig szükséges annak kikövetkeztetéséhez a megfigyelhető bizonyítékok alapján, hogy mi történt a gyilkosság helyszínén. Az előző szakaszban felsorolt négy következtetési feladatot megoldó algoritmusok először leírhatók általános szinten, függetlenül az alkalmazott modell konkrét típusától.
A látás helyreállítása műtét nélkül igaz vagy mítosz?
Az egyes modellekhez igazodó javításokat a következő fejezetekben ismertetjük. Szűrés és előrejelzés Kezdjük a szűréssel. Ezt a folyamatot gyakran nevezik rekurzív becslésnek recursive estimation.
Most a jelenlegi Xt állapotot feltételnek véve a következő állapot egylépéses előrejelzéséhez jutunk: kihasználva a Markov-tulajdonságot Így megvan a kívánt rekurzív képlet. Fontos Ha az összes állapotváltozó diszkrét, minden frissítés ideje állandó azaz t-től függetlenés a tárigény is állandó.
Ezek az állandók természetesen függnek az állapottér méretétől és a tárgyalt időbeli modell konkrét típusától.
A látásromlás fő jelei
A frissítés idő- és tárigényének állandónak kell lennie, ha egy korlátos memóriájú ágensnek követnie kell az aktuális állapot eloszlását a megfigyelések egy korlátlan sorozata esetén. Mutassuk be a szűrési folyamatot két lépésen keresztül az alap esernyős példában lásd Feltesszük, hogy a biztonsági őrünknek van valamilyen a priori hite, hogy a 0.
Most a két megfigyelést a következőképpen dolgozzuk fel: Az 1. Az előrejelzés feladatát tekinthetjük egyszerűen következtetés a látás állapotáról új bizonyíték hozzáadása nélkül.

Érdekes meggondolni, hogy mi történik, ahogy egyre távolabbra próbálunk előre jelezni a jövőben. Rengeteg ismeret gyűlt fel az ilyen eloszlások tulajdonságairól és a keverési időről mixing time — ami nagyjából a fix pont eléréséig eltelt idő.
Gyakorlati szempontból ez bukásra ítél minden olyan kísérletet, ami a keverési idő kis hányadánál nagyobb számú lépés múlva kísérli meg az aktuális állapot előrejelzését.
Minél bizonytalanabb az állapotátmenet-modell, annál rövidebb a keverési idő, és a jövő annál homályosabb. A szűrésen és az előrejelzésen túl, felhasználhatjuk az előrehaladó szemvizsgálati táblázat milyen formátumban egy bizonyítéksorozat P e1:t valószínűségének a kiszámítására is.
Ez egy hasznos mennyiség, ha különböző időbeli modelleket szeretnénk összehasonlítani, amelyek ugyanazt a bizonyítéksorozatot állíthatták elő; például a Az f1:k előre üzenetet előre szűréssel lehet kiszámolni 1-től k-ig, a Ahogy az előrefelé rekurziónál, az egyes frissítésekhez szükséges idő- és tárigény állandó, és így t-től független itt is.
Mi okoz villogást és ragyogást a szemben
A második tényezőt a Ennek oka az, hogy az esernyő a 2. Mind az előrefelé, mind a visszafelé haladó rekurzió lépésenként állandó időt igényel; így a simítás időkomplexitása e1:t bizonyíték esetén O t.

Ez egy konkrét k időlépésbeli simítás komplexitása. Ha a teljes szekvenciát szeretnénk simítani, nyilvánvaló módszer, hogy egyszerűen az egész simítási folyamatot lefuttatjuk minden egyes simítandó időpillanatra.
Ez O t2 időkomplexitást eredményez. Jobb megközelítés a dinamikai programozás nagyon egyszerű alkalmazásával O t -re csökkenti a komplexitást. A megoldás kulcsa megjelent az esernyős példa előző elemzésében, ahol az előrefelé szűrés folyamatának eredményeit újra fel tudtuk használni. A lineáris idejű algoritmus kulcsa így az előrefelé szűrés eredményeinek a tárolása az egész sorozatnál. Az algoritmus, amit találóan előre-hátra algoritmusnak forward-backward algorithm neveznek, a A figyelmes olvasó észrevehette, hogy a Ez azt jelenti, hogy a csoportosító algoritmus egy nyilvánvaló alkalmazása szintén lineáris idejű algoritmust eredményez, ami a teljes sorozatra kiszámítja a simított becslést.
Mára már világossá vált, hogy az előre-hátra algoritmus valójában a csoportosító eljárásokban használt polifa terjesztési algoritmusnak egy speciális esete bár a kettőt egymástól függetlenül fejlesztették ki. Az előre-hátra algoritmus alkotja a gerincét azon számítási módszereknek, amelyeket számos zajos megfigyelések sorozatával foglalkozó alkalmazásban használnak, a beszédfelismeréstől a repülőgépek radarkövetéséig.
A nyaki osteochondrosis és a látás
Ahogy leírtuk, két gyakorlati hátránya van. Az első, hogy a tárigénye túl nagy lehet azoknál az alkalmazásoknál, ahol az állapottér nagy, és a sorozatok hosszúak, mivel O f t méretű tárat használ, ahol f az előrefelé üzenet reprezentációjának a mérete. A tárigény O f log t -re csökkenthető az időkomplexitásnak egy log t tényezővel történő egyidejű megnövelése árán, ahogy a Bizonyos esetekben lásd Az alapalgoritmus második hátránya, hogy a folyamatos online működéshez módosítást igényel.
Ekkor ugyanis a korábbi időpontokhoz simított becsléseket kell kiszámítanunk, amint folyamatosan új megfigyelések érkeznek a sorozat végéhez.
A leggyakoribb követelmény az állandó időkülönbségű simítás fixed-lag smoothingami a P Xt—d e1:t simított becslés kiszámítását jelenti egy rögzített d-re. Azaz a simítást a jelenlegi t időpillanat előtt d lépéssel lévő időpontra végezzük el; t növekedését a simításnak is követnie kell. A legvalószínűbb sorozat megtalálása Tegyük fel, hogy a biztonsági őr esernyősorozata a munkája első öt napjában az [igaz, igaz, hamis, igaz, igaz].

Mi a legvalószínűbb időjárás-sorozat, ami ezt megmagyarázza? Az esernyő hiánya a 3. Összességében 25 lehetséges időjárás-sorozatot választhatunk. Létezik-e módszer a legvalószínűbb sorozat megkeresésére, az összes felsorolása nélkül? Az egyik megközelítés, amit kipróbálhatunk a következő lineáris idejű algoritmus: használjuk a simító algoritmust, hogy megtaláljuk az időjárás a posteriori eloszlását minden időpillanatban; majd állítsuk elő a sorozatot minden egyes lépésnél az a posteriori szerinti legvalószínűbb időjárást felhasználva.
Egy ilyen megközelítést kötelező gyanakvással kell fogadnia az olvasónak, mivel a szűrés által kiszámított a posteriori eloszlások az egyes időpontok feletti eloszlások, ezzel szemben a legvalószínűbb sorozat megtalálásához az összes időpont feletti együttes valószínűségeket kell figyelembe venni.
Az eredmények valójában nagyon különbözők lehetnek lásd Lineáris idejű algoritmus azonban létezik a legvalószínűbb sorozat megtalálására, de kicsit több gondolkozást igényel. Ugyanazon a Markov-tulajdonságon alapul, mint ami hatékony algoritmusokat eredményezett a szűrésre és a simításra.
A problémáról való gondolkodás legkönnyebb módja, hogy ha minden sorozatot egy útvonalnak tekintünk egy gráfban, aminek a csomópontjai az egyes időpillanatokban a lehetséges állapotok. Egy ilyen gráf látható az esernyős problémára a Most gondoljuk meg a gráfon keresztül vezető legvalószínűbb út megkeresésének a problémáját, ahol egy út valószínűsége a likelihood érték az útvonal menti átmenetek valószínűségeinek és az egyes állapotokban adott megfigyelések valószínűségeinek a szorzata. Ez a kapcsolat olyan egyenletként írható fel, amely az útvonalak valószínűségeit kapcsolja össze: A Így a legvalószínűbb állapotsorozat kiszámítása hasonló a szűréshez: előrefelé végigfut a sorozaton, minden időpontban kiszámítva az m üzeneteket a A számítás menetét a Végül ez kiadja az összes végső állapothoz vezető legvalószínűbb útvonal valószínűségét.
Így már könnyen kiválasztható a teljes hosszúságú legvalószínűbb sorozat a vastagon szedettel kiemelt végső állapottól. Az aktuális következtetés a látás állapotáról azonosításához — szemben azzal, amikor csak a valószínűségét számítjuk ki — az algoritmusnak minden állapotból mutatókat kell nyilvántartania a legjobb hozzá vezető állapothoz vastagon következtetés a látás állapotáról látható ; a sorozat a mutatóknak a legjobb végső állapottól való visszafelé követésével határozható meg.
Az állapotokat négyzetes csomópont jelzi, hogy félreérthetetlenül megkülönböztessük őket egy Bayes-háló csomópontjaitól. Minden t időpontra feltüntettük az m1:t üzenet értékeit, ami minden egyes t időpontbeli állapothoz megadja a legjobb, benne végződő sorozat valószínűségét. Minden egyes állapothoz egy vastag nyíl is vezet, ami a legjobb elődjét jelzi, a megelőző sorozat valószínűségének és az átmenet valószínűségének a szorzata szerint.
A vastag nyilak visszafelé követése az mbeni legvalószínűbb állapotból pedig megadja a legvalószínűbb sorozatot. Az előzőleg leírt algoritmust Viterbi-algoritmusnak nevezik a megalkotója után. Hasonlóan a szűrési algoritmushoz, ennek a komplexitása is lineáris t-ben, a sorozat hosszában.
Azonban eltérően a szűréstől, a tárigénye szintén lineáris t-ben. Ez azért van így, mert a Viterbi-algoritmusban mutatókkal kell következtetés a látás állapotáról az egyes állapotokhoz vezető legjobb sorozatot.
