Zklamání a nejistá budoucnost. Apple ve studii zjistil, že je umělá inteligence „hloupá“ a neschopná logického uvažování

Lukáš Altman
Lukáš Altman
Profil autora
345 článků

Lukáše psaní naplňovalo už od dětství, že se tím bude živit si uvědomil ještě jako student v roce 2013. V tu dobu už si několika dílčími texty začal přivydělávat. Jeho profesionální kariéra začala o tři roky později, kdy se stal externím redaktorem pro portál Alza.cz. Od té doby spolupracoval s řadou firem různých rozsahů a dokonce založil několik vlastních projektů, včetně Mobify.cz, který časem přešel pod společnost abcMedia Network. Nyní se Lukáš řadí mezi nejvlivnější české redaktory v oblasti elektroniky.

Ačkoliv nadšení kolem umělé inteligence pokračuje, přední technologická společnost v ní nevěří tak jako jiní. Ve studii totiž Apple odhalil, že nedokáže fungovat samostatně.

Umělá inteligence nemá logické chápání

„Umělá inteligence“ v posledních letech hýbe světem, a podle redakce Mobify jsou uvozovky maximálně na místě, jelikož lze i dnes tvrdit, že jde spíše o pokročilé strojové učení. K podobnému závěru ostatně dospěla i obsáhlá studie prováděná společností Apple, která uvedla, že i nepatrné změny formulací vedou k velmi odlišnému výsledku, poněvadž „AI“ nemá logické uvažování.

Absence logického uvažování vytváří mylné výsledky

V testování se ocitly největší jazykové modely na světě (než někdo začne namítat, že ty přece nemají matematické úlohy zvládat, opak je pravdou – navíc jde celkově o to logické myšlení). Jmenovat lze asi nejznámější OpenAI nebo Meta, u nichž chtěl Apple zjistit, jak dobře zvládají matematické uvažování. Ukázalo se však, že příliš dobře ne, jelikož i malé detaily, které by neměly mít na výsledek de facto žádný vliv, dokážou způsobit obrovské nesrovnalosti, vysvětluje arXiv.

Apple to konkrétně okomentoval tím, že se jazykové modely i dnes až příliš soustředí na porovnání vzorů spíše než na logické uvažování, uvádí MacRumors. Já, jelikož sem tam pracuji konkrétně s ChatGPT od zmíněného OpenAI (a některými navázanými nástroji), mohu potvrdit, že více než někdy nechápe ani naprosto základní požadavky, a čím více detailů uvedu, tím je výsledek horší.

Na druhou stranu mi občas podá výstupy, které bych ani nečekal, a dokáže mě nasměrovat; takže je to prostě jak kdy, ale nic zásadního bych mu nesvěřil. Ale zpět ke studii.

Jeden z příkladů zahrnoval jednoduchou matematickou úlohu, kolik kiwi člověk nasbíral za udaný počet dní. Na osekaný prompt byla sice odpověď správná, ale jakmile byly připsány irelevantní podrobnosti o velikosti některých kiwi, modely jako OpenAI o1 a Meta Llama upravily konečný součet nesprávně, ačkoliv neměly dodatečné informace na řešení žádný vliv.

Budoucnost umělé inteligence je možná ohrožena

Jak jsem už naznačil, i dnes jde spíše o lepší strojové učení, což ostatně uvedl i Apple ve zmíněné studii s tím, že současné modely „umělé inteligence“ vykazovaly výraznou degradaci výkonu, když čelily zdánlivě bezvýznamným odchylkám ve vstupních datech. Jde o znepokojivé znamení pro budoucnost systémů, které by měly být na umělé inteligenci založeny.

Apple tak připustil, že možná bude potřeba kombinovat neuronové sítě s tradičním uvažováním založeným na symbolech zvaným neurosymbolická umělá inteligence, aby docházelo k přesnějšími rozhodování se a řešení problémů. No, jsem zvědav, jak se to vyvine.

Zdroje

Autorský komentář Lukáše Altmana

Líbí se vám tento článek? Tak pojďte diskutovat.

Copyright © 2016-2024 abcMedia Network, s.r.o.
Obsah je chráněn autorským právem. Jakékoli užití včetně publikování nebo jiného šíření obsahu je bez písemného souhlasu zakázáno.