Podtřída | IT , umělá inteligence |
---|---|
Část | Umělá inteligence |
Pole | Algoritmus postupného učení |
Strojového učení (v angličtině : strojové učení , . Doslova „ strojové učení “), strojové učení nebo statistické učení je obor z umělé inteligence , který je založen na matematických a statistických přístupů k dát počítačům schopnost ‚učit se‘ z dat , to znamená zlepšit jejich výkon při řešení úkolů, aniž by byly výslovně naprogramovány pro každý z nich. V širším smyslu jde o návrh, analýzu, optimalizaci, vývoj a implementaci těchto metod.
Strojové učení má obvykle dvě fáze. Prvním je odhadnout model z dat zvaných pozorování, která jsou k dispozici v konečném počtu během fáze návrhu systému. Odhad modelu zahrnuje řešení praktického úkolu, jako je překlad řeči , odhad hustoty pravděpodobnosti, rozpoznání přítomnosti kočky na fotografii nebo účast na řízení autonomního vozidla. Tato takzvaná fáze „učení“ nebo „školení“ se obvykle provádí před praktickým využitím modelu. Druhá fáze odpovídá zahájení výroby: model, který se určuje, lze poté odeslat nová data, aby se získal výsledek odpovídající požadovanému úkolu. V praxi mohou některé systémy pokračovat v učení jednou ve výrobě, pokud mají způsob, jak získat zpětnou vazbu o kvalitě produkovaných výsledků.
V závislosti na informacích dostupných během fáze učení je učení kvalifikováno různými způsoby. Pokud jsou data označena (to znamená, že pro tato data je známá odpověď na úkol), jedná se o supervizní učení . Mluvíme o klasifikaci nebo klasifikaci, pokud jsou štítky diskrétní, nebo o regresi, pokud jsou spojité. Pokud se model učí postupně jako funkce odměny, kterou program obdrží za každou provedenou akci, označuje se jako posilovací učení . V nejobecnějším případě, bez štítku, se snažíme určit základní strukturu dat (což může být hustota pravděpodobnosti) a pak jde o učení bez dohledu . Strojové učení lze použít na různé typy dat, jako jsou grafy , stromy , křivky nebo jednodušší vektory funkcí , které mohou být spojité nebo diskrétní kvalitativní nebo kvantitativní proměnné .
Od starověku předmět myslících strojů zaměstnával mysli. Tento koncept je základem myšlenky pro to, co se později stane umělou inteligencí , a také jednou z jejích dílčích větví: strojovým učením.
Realizace této myšlenky je způsobena hlavně Alanem Turingem (britským matematikem a kryptologem) a jeho konceptem „univerzálního stroje“ v roce 1936, který je základem dnešních počítačů. Ve svém článku „Počítač a inteligence“ z roku 1950, ve kterém mimo jiné vyvinul Turingův test, bude i nadále klást základy strojového učení .
V roce 1943 zveřejnili neurofyziolog Warren McCulloch a matematik Walter Pitts článek popisující fungování neuronů jejich reprezentací pomocí elektrických obvodů. Toto znázornění bude teoretickým základem neuronových sítí .
Arthur Samuel , americký počítačový vědec a průkopník v oblasti umělé inteligence, jako první použil výraz strojové učení (ve francouzštině „strojové učení“) v roce 1959 po vytvoření svého programu pro IBM v roce 1952. Program hrál Dáma a zlepšilo se hraní. Nakonec se mu podařilo porazit 4. ročník nejlepšího hráče ve Spojených státech.
Významným pokrokem v oblasti strojové inteligence je úspěch počítače vyvinutého společností IBM, Deep Blue , který jako první porazil mistra světa v šachu Garryho Kasparova v roce 1997. Projekt Deep Blue bude inspirovat mnoho dalších v kontextu umělé inteligence. inteligence, zejména další velká výzva: IBM Watson , počítač, jehož cílem je vyhrát hru Jeopardy! . Tohoto cíle bylo dosaženo v roce 2011, kdy Watson vyhrál v Jeopardy! odpovídáním na otázky pomocí zpracování přirozeného jazyka.
Během následujících let se aplikace vysoce postaveného strojového učení navzájem sledovaly mnohem rychleji než dříve.
V roce 2012 se neuronové síti vyvinuté společností Google podařilo rozpoznat lidské tváře i kočky ve videích na YouTube .
V roce 2014, 64 let po předpovědi Alana Turinga, spisovatel dialogu Eugene Goostman jako první prošel Turingovým testem a přesvědčil 33% lidských soudců po pěti minutách rozhovoru, že není počítač., Ale 13letý Ukrajinec chlapec.
V roce 2015 bylo dosaženo dalšího důležitého milníku, když počítač „ AlphaGo “ společnosti Google zvítězil nad jedním z nejlepších hráčů ve hře Go , deskové hře považované za nejtěžší na světě.
V roce 2016 se systému umělé inteligence založenému na strojovém učení s názvem LipNet podařilo číst rty s velkou úspěšností.
Strojové učení (AA) umožňuje řízenému nebo počítačem podporovanému systému, jako je program, umělá inteligence nebo robot, přizpůsobit své reakce nebo chování vzniklým situacím na základě analýzy minulých empirických dat z databází, senzorů nebo web.
AA umožňuje překonat obtíže spočívající ve skutečnosti, že množina všech možných chování s přihlédnutím ke všem možným vstupům se rychle stává příliš složitou na to, aby se dala popsat a programovat klasickým způsobem (hovoří se o kombinatorické explozi ). Programům AA je proto svěřen úkol upravit model tak, aby tuto složitost zjednodušil, a operativně jej používat. V ideálním případě se učení bude snažit být bez dozoru , tj. Modelu nejsou poskytovány odpovědi na tréninková data.
Tyto programy, v závislosti na stupni jejich propracovanosti, mohou zahrnovat pravděpodobnostní možnosti zpracování dat, analýzu dat ze senzorů, rozpoznávání (rozpoznávání hlasu, tvar, rukopis atd.), Těžbu dat , teoretickou informatiku ...
Strojové učení se používá v širokém spektru aplikací, které poskytují počítačům nebo strojům schopnost analyzovat vstupní data, jako jsou: vnímání jejich prostředí ( vidění , rozpoznávání tvarů, jako jsou tváře , vzory, segmentace obrazu , přirozené jazyky , strojové nebo ručně psané znaky ; vyhledávače , analýza a indexování obrázků a videa, zejména pro vyhledávání obrázků podle obsahu ; diagnostická pomůcka , zejména lékařská, bioinformatika , chemoinformatika ; rozhraní mozek-stroj ; detekce podvodů s kreditními kartami, kybernetická bezpečnost , finanční analýza včetně akciového trhu analýza ; klasifikace sekvence DNA; hraní her; softwarové inženýrství ; přizpůsobení webových stránek; robotika (lokomoce robotů atd. ); prediktivní analýza v mnoha oblastech (finanční, lékařská, právní, soudní).
Příklady:
Algoritmy učení lze rozdělit do kategorií podle toho, jaký režim učení používají.
Kontrolované učení Pokud jsou třídy předurčené a jsou známy příklady , systém se naučí klasifikovat podle klasifikace nebo klasifikačního modelu ; pak mluvíme o supervizovaném učení (nebo diskriminační analýze ). Odborník (nebo Oracle ), musí nejprve příklady štítku. Proces probíhá ve dvou fázích. Během první fáze (offline, známé jako učení ), jde o určení modelu z označených dat. Druhá fáze (online, tzv. Test ) spočívá v předpovídání štítku nové datové položky se znalostí dříve naučeného modelu. Někdy je lepší spojit část dat ne s jedinou třídou, ale s pravděpodobností, že patří do každé z předem určených tříd (tomu se říká pravděpodobnostní učení pod dohledem).např. : Lineární diskriminační analýza nebo SVM jsou typickými příklady. Další příklad: v závislosti na společných bodů zjištěných s příznaky jiných známých pacientů (o příklady ), systém může kategorizovat nových pacientů na základě jejich lékařské analýzy je k odhadované riziko ( pravděpodobnost ) vzniku konkrétního onemocnění. Učení bez dozoru Pokud má systém nebo operátor pouze příklady, ale žádný štítek a počet tříd a jejich povaha nebyly předem stanoveny, mluvíme o bezobslužném učení nebo shlukování v angličtině. Není vyžadován žádný odborník. Algoritmus musí sám objevit víceméně skrytou strukturu dat. Rozdělení dat , shlukování dat v angličtině, je bezobslužný algoritmus učení. Systém zde musí - v prostoru popisu (všechna data) - cílit data podle jejich dostupných atributů, aby je mohl zařadit do homogenních skupin příkladů. Podobnost se obvykle počítá s použitím funkce vzdálenosti mezi páry příkladů. Je potom na operátorovi, aby přidružil nebo odvodil význam pro každou skupinu a pro vzorce ( vzory v angličtině) vzhledu skupin nebo skupin skupin v jejich „prostoru“. Mohou mu pomoci různé matematické nástroje a software . Mluvíme také o regresní analýze dat (úprava modelu metodou typu nejmenších čtverců nebo jiná optimalizace nákladové funkce ). Pokud je přístup pravděpodobnostní (to znamená, že každý příklad, místo toho, aby byl klasifikován v jedné třídě, je charakterizován souborem pravděpodobností příslušnosti ke každé z tříd), pak mluvíme o „ měkkém shlukování “ (na rozdíl od na „ tvrdé shlukování “). Tato metoda je často zdrojem serendipity .např. : Pro epidemiologa, který by chtěl u poměrně velké skupiny obětí rakoviny jater pokusit se o vysvětlující hypotézy, by počítač mohl rozlišovat mezi různými skupinami, které by se pak epidemiolog snažil spojit s různými vysvětlujícími faktory, geografickým původem, genetika , spotřební návyky nebo postupy, vystavení různým potenciálně nebo efektivně toxických látek ( těžké kovy , toxiny , jako je aflatoxinů , atd ). Učení s částečným dohledem Realizováno pravděpodobnostně nebo ne, má za cíl ukázat základní rozdělení příkladů v jejich popisném prostoru. Implementuje se, když chybí data (nebo „štítky“) ... Model musí používat neoznačené příklady, které mohou přesto poskytnout informace.např. : V medicíně to může být pomůcka při diagnostice nebo při výběru nejlevnějšího způsobu diagnostických testů. Částečně pod dohledem Pravděpodobné nebo ne, pokud je označení údajů částečné. To je případ, kdy model uvádí, že data nepatří do třídy A , ale možná do třídy B nebo C ( A, B a C jsou tři nemoci, například zmíněné v kontextu diferenciální diagnózy ).: Posílení učení algoritmus se učí chování dané pozorováním. Působení algoritmu na prostředí vytváří návratovou hodnotu, která vede učící se algoritmus.např. : Algoritmus Q-Learning je klasický příklad. Přenos učení Transfer learning lze chápat jako schopnost systému rozpoznávat a aplikovat znalosti a dovednosti získané z předchozích úkolů na nové úkoly nebo oblasti, které sdílejí podobnosti. Vyvstává otázka: jak identifikovat podobnosti mezi cílovými úkoly a zdrojovými úkoly, pak jak přenést znalosti zdrojových úkolů na cílové úkoly?Algoritmy lze rozdělit do čtyř hlavních skupin nebo typů:
Přesněji :
Tyto metody se často kombinují, aby se získaly různé varianty učení. Volba algoritmu silně závisí na úkolu, který má být vyřešen (klasifikace, odhad hodnot…), na objemu a povaze dat. Tyto modely jsou často založeny na statistických modelech .
Kvalita učení a analýzy závisí na potřebě upstream a a priori kompetence operátora připravit analýzu. Závisí to také na složitosti modelu (konkrétního nebo obecného), jeho vhodnosti a přizpůsobení subjektu, který má být léčen. Kvalita práce bude v konečném důsledku také záviset na režimu (vizuálního zvýraznění) výsledků pro koncového uživatele (relevantní výsledek může být skryt v příliš složitém diagramu nebo špatně zvýrazněn nevhodným grafickým znázorněním).
Před tím bude kvalita práce záviset na počátečních závazných faktorech souvisejících s databází :
Strojové učení není jen sada algoritmů, ale sleduje řadu kroků.
Většina z těchto kroků se nachází v metodách a procesech projektů KDD, CRISP-DM a SEMMA , které se vztahují k projektům dolování dat.
Autonomní auto se jeví jako proveditelný v roce 2016 díky strojového učení a obrovské množství dat generovaných stále připojené vozového parku. Na rozdíl od tradičních algoritmů (které se řídí předem stanovenou sadou pravidel) se strojové učení učí svým vlastním pravidlům.
Přední inovátoři v oboru trvají na tom, že pokrok pochází z automatizace procesů. To má chybu, že proces strojového učení se stal privatizovaným a temným. Privatizované, protože algoritmy AA představují obrovské ekonomické příležitosti, a temné, protože jejich porozumění jde za jejich optimalizací. Tento vývoj má potenciál podkopat důvěru veřejnosti v strojové učení, ale co je důležitější, dlouhodobý potenciál velmi slibných technik.
Autonomní vůz představuje testovací rámec pro konfrontaci strojového učení ve společnosti. Ve skutečnosti to není jen algoritmus, který je trénován v silničním provozu a jeho pravidlech, ale také naopak. Princip odpovědnosti je strojovým učením zpochybňován, protože algoritmus již není psán, ale spíše se učí a rozvíjí druh digitální intuice. Tvůrci algoritmů již nejsou schopni pochopit „rozhodnutí“ učiněná jejich algoritmy, a to samotnou matematickou konstrukcí algoritmu strojového učení.
V případě vozidel typu AA a vozidel s vlastním pohonem vyvstává otázka odpovědnosti v případě nehody. Společnost musí na tuto otázku poskytnout odpověď s různými možnými přístupy. Ve Spojených státech existuje tendence hodnotit technologii podle kvality výsledku, který produkuje, zatímco v Evropě se uplatňuje zásada předběžné opatrnosti a v porovnání s předchozími technologiemi existuje větší tendence hodnotit novou technologii. rozdíly ve srovnání s tím, co je již známo. V Evropě a ve Spojených státech probíhají procesy hodnocení rizik.
Otázka odpovědnosti je o to komplikovanější, že priorita návrhářů spočívá v návrhu optimálního algoritmu, nikoli v jeho porozumění. Interpretovatelnost algoritmů je nezbytná pro pochopení rozhodnutí, zejména pokud mají tato rozhodnutí zásadní dopad na život jednotlivců. Tato představa interpretovatelnosti, tedy schopnosti porozumět tomu, proč a jak algoritmus funguje, je také předmětem interpretace.
Otázka dostupnosti údajů je kontroverzní: v případě automobilů s vlastním pohonem někteří obhajují přístup veřejnosti k údajům, což by umožnilo lepší učení pomocí algoritmů a nesoustředilo by toto „digitální zlato“ do rukou „hrstky jednotlivců, plus další se zasazují o privatizaci dat ve jménu volného trhu, aniž by opomněli skutečnost, že dobrá data jsou konkurenční, a tedy ekonomickou výhodou.
Vyvstává také otázka morálních voleb souvisejících s rozhodnutími ponechanými na algoritmech AA a samořídících automobilech v případě nebezpečných nebo smrtelných situací. Například v případě selhání brzd vozidla a nevyhnutelné nehody by měly být přednostně zachráněny životy: cestujících nebo chodců přes ulici?
V letech 2000–2010 je strojové učení stále vznikající, ale všestrannou technologií, která je ze své podstaty teoreticky schopná zrychlit tempo automatizace a samoučení. V kombinaci se vznikem nových způsobů výroby, skladování a cirkulace energie a všudypřítomných výpočtů by to mohlo narušit technologie a společnost (stejně jako parní stroj a elektřina , poté ropa a počítačová věda v předchozích průmyslových revolucích . generovat neočekávané inovace a schopnosti, ale s rizikem podle některých pozorovatelů ztráty kontroly ze strany lidí nad mnoha úkoly, které dělají. již nebudou schopni porozumět a které budou rutinně provádět počítačové a robotizované entity. navrhuje konkrétní dopady, které jsou složité a stále nelze posoudit na zaměstnanost, práci a obecněji na ekonomiku a nerovnosti.
Podle časopisu Science na konci roku 2017: „Účinky na zaměstnanost jsou složitější než jednoduchá otázka nahrazování a nahrazování někteří zvýraznili. Protože BA je dnes relativně omezená a nečelíme bezprostřednímu „konci práce“, jak se někdy uvádí, důsledky pro hospodářství a pracovní sílu jsou hluboké “ .
Je lákavé čerpat inspiraci od živých bytostí, aniž by je naivně kopírovalo, aby bylo možné navrhnout stroje schopné učení. Pojmy vnímání a pojetí jako fyzikálních neuronových jevů popularizoval ve frankofonním světě také Jean-Pierre Changeux . Strojové učení zůstává především podoblastí počítačové vědy , ale je provozně úzce spjato s kognitivními vědami , neurovědy , biologií a psychologií a mohlo by na křižovatce těchto oborů, nanotechnologií, biotechnologií, počítačové vědy a kognitivních věd , vést k systémy umělé inteligence se širší základnou. Veřejné kurzy se konaly zejména na Collège de France , jeden od Stanislas Dehaene zaměřený na bayesovský aspekt neurovědy a druhý od Yanna LeCuna o teoretických a praktických aspektech hlubokého učení .
Strojové učení vyžaduje pro správné fungování velké množství dat . Může být obtížné kontrolovat integritu souborů dat, zejména v případě dat generovaných sociálními sítěmi.
Kvalita „rozhodnutí“ přijatých algoritmem AA závisí nejen na kvalitě (a tedy na jejich homogenitě, spolehlivosti atd.) Dat použitých pro trénink, ale především na jejich množství. Takže pro soubor sociálních dat shromážděný bez zvláštní pozornosti zastoupení menšin je AA statisticky nespravedlivá vůči nim. Schopnost „dobrého“ rozhodování skutečně závisí na velikosti údajů, která bude pro menšiny proporcionálně menší.
AA v současné době nerozlišuje příčinu a korelaci svou matematickou konstrukcí a není schopna jít nad rámec stanovený jejími údaji, takže nemá žádnou extrapolační kapacitu .
Použití algoritmů strojového učení proto vyžaduje, abyste si byli vědomi datového rámce, který byl použit pro učení během jejich používání. Je proto domýšlivé přisuzovat algoritmům strojového učení příliš velké ctnosti.
Algoritmus může být zkreslený, když se jeho výsledek odchyluje od neutrálního, spravedlivého nebo spravedlivého výsledku. V některých případech mohou algoritmické předsudky vést k diskriminačním situacím .
Data mohou být také zkreslená, pokud vzorek dat použitých k trénování modelu není neutrální a reprezentativní pro realitu nebo nevyvážený. Toto zkreslení se pak model učí a reprodukuje.
Algoritmy strojového učení představují problémy s celkovou vysvětlitelností systému. Zatímco některé modely, jako je lineární regrese nebo logistická regrese, mají omezený počet parametrů a lze je interpretovat, jiné typy modelů, jako jsou umělé neuronové sítě, nemají zřejmou interpretaci.