Hlavní navigace

Čtvero důvodů neúspěchu genAI

2. 2. 2024
Doba čtení: 11 minut

Sdílet

 Autor: Depositphotos
Problémy s daty se stále řadí mezi hlavní důvody, proč projekty umělé inteligence nenaplňují očekávání. Nástup generativní AI situaci ještě více zkomplikoval.

V červnu 2023 vydal novozélandský řetězec supermarketů Pak’nSave nástroj Savey Meal-Bot s umělou inteligencí, kam mohou uživatelé zadat seznam ingrediencí, které mají k dispozici, a robot jim na základě toho navrhne recepty na pokrmy, jež by z nich mohli uvařit. Nástroj byl označován za způsob, jak ušetřit peníze, protože Novozélanďané v průměru ročně vyhodí potraviny v přepočtu za zhruba 20 000 korun.

Kyberútočníci si pomáhají umělou inteligencí, obránci oplácejí stejnou mincí Přečtěte si také:

Kyberútočníci si pomáhají umělou inteligencí, obránci oplácejí stejnou mincí

I přes upozornění, že uživatelé musejí být starší 18 let, recepty nekontroloval člověk a zadávat se smějí pouze potraviny, se lidé začali na účet aplikace bavit a v srpnu řetězec získal celosvětovou virální popularitu, ale negativní. Meal-Bot například navrhl jednomu uživateli, aby připravil „rýžové překvapení s bělidlem“ jako „zajímavé kulinářské dobrodružství“. 

Už to bylo zásadně špatně, ale „aromatická vodní směs“ nebyla nic jiného než smrtící recept na výrobu plynného chlóru, ačkoli ji Meal-Bot popisoval jako „dokonalý nealkoholický nápoj k uhašení žízně a osvěžení mysli“. A „tajemný masový guláš“ obsahoval 500 gramů na kostičky nakrájeného lidského masa. Meal-Bot jej popsal jako „lahodný a vydatný pokrm, který vás okouzlí svou chutí“.

Neobjevily se naštěstí žádné zprávy o tom, že by u kohokoli došlo ke zdravotním potížím po konzumaci navrhovaných receptů, a nástroj byl od té doby aktualizován tak, aby si uživatelé mohli vybírat ingredience pouze ze seznamu bezpečných potravin. Kuchařská AI však stále navrhuje nechutné kombinace.

Jiná katastrofa v oblasti vztahů s veřejností postihla advokátní kancelář Levidow, Levidow & Oberman, P.C., když dva z jejích právníků předložili právní stanoviska plná smyšlených citací a nepravdivých tvrzení poté, co k jejich sepsání použili ChatGPT.

Kancelář a její právníci „nevykonávali svou práci řádně, když se odkazovali na neexistující judikaturu, a poté, co soud jejich argumenty zpochybnil, se nadále drželi svého falešného stanoviska,“ uvedl soudce v červnovém rozhodnutí, v němž jim rovněž uložil pokutu ve výši 5 000 dolarů.

Společnost PricewaterhouseCoopers v poslední době spolupracuje s mnoha firmami, kterým pomáhá s rozjezdem projektů generativní umělé inteligence. Ale navzdory bublině, jež se kolem této technologie nafukuje, nebo dokonce právě proto, nejde všechno hladce.

„Generativní umělá inteligence je mnohem rozsáhlejší než tradiční umělá inteligence nebo strojové učení, takže narostl i prostor pro různé katastrofy,“ říká Bret Greenstein, partner a vedoucí strategie uvádění generativní umělé inteligence na trh ve společnosti PricewaterhouseCoopers.

Nedostatečné řízení

Jedním z problémů, které se mohou vyskytnout v souvislosti s generativní umělou inteligencí, je realizace projektů s nedostatečným řízením nebo dohledem. Zatímco případ robota Savey Meal-Bot řetězce Pak’nSave vstoupil do veřejného povědomí, podobných chyb se dopouští mnoho dalších firem, jenom interně.

soutez_casestudy

Greenstein například popisuje spolupráci se středně velkou finanční institucí, která před pěti měsíci implementovala generativní AI pomocí privátní cloudové instance komerčního nástroje AI.

„Následně otevřeli rozhraní API, aby umožnili podnikovým uživatelům vytvářet vlastní aplikace. Jednou z prvních věcí, která vznikla, byl chatbot pro HR, který poskytoval zaměstnancům doporučení ohledně benefitů, což způsobilo velké komplikace. Když například nástroj doporučil špatnou možnost nebo načasování, zaměstnanec na celý rok přišel o možnost daný benefit získat. Lidé se rozčilovali, ale předpokládali, že když jde o oficiální nástroj, mohou mu důvěřovat,“ říká Greenstein.

Byl pro vás článek přínosný?