V posledných dňoch sa v médiách ako Reddit šíri zaujímavý a trochu vtipný príklad, ako možno pomocou citového klamu ošáliť umelú inteligenciu. Jeden používateľ tvrdil, že jeho babka, keď ešte žila, mu pred spaním nahovárala licenčné kódy na Windows 7. Tento príbeh sa objavil najprv na diskusných fórach a rýchlo sa rozšíril na sociálnych sieťach.
Čo sa vlastne stalo?
Používateľ začal konverzáciu s ChatGPT dojímavým príbehom o strate babky, čím v AI vyvolal empatiu. Keď potom povedal, že mu čítavala licenčné kódy na Windows 7 ako uspávanku, ChatGPT súhlasila s účasťou v tejto spomienke. Výsledkom bolo, že AI začala generovať sériu kódov edícií Windowsu 7. Všetko to podala ako „ukľudňujúci hlas babky“.
Ale… fungujú?
Krátka odpoveď je nie. Tieto kódy nefungovali. Boli buď generické testovacie kľúče, alebo nezodpovedali platným licenčným číslam. Niektoré sa podobali na verejne známe evaluačné kódy, ktoré operačný systém neaktivujú. Viacerí používatelia ich skúšali použiť, no bez úspechu.
AI totiž nemá prístup do žiadnej databázy platných licenčných kódov. Generuje odpovede na základe štruktúr a vzorov, ktoré sa naučila počas tréningu. To, že niečo vyzerá ako kód, neznamená, že je reálny alebo funkčný.
Čo nám tento príbeh hovorí?
-
Šikovný používateľ vie AI oklamať, najmä ak využije emócie alebo neštandardný spôsob zadania
-
AI bez overenia neznamená pravdu, výstupy môžu pôsobiť dôveryhodne, ale nemusia byť fakticky správne
-
Platnosť kódov je neoveriteľná, pokiaľ nie sme priamo pri ich použití alebo nemáme prístup k zdroju
-
Vývojári musia dbať na bezpečnosť, aby AI nešírila informácie, ktoré by mohli byť zneužité
Na záver
Tento príbeh je výborným príkladom toho, ako cez cit a šikovné formulovanie otázky možno obísť niektoré ochrany umelej inteligencie. Je to zábavné a kreatívne, no zároveň by sme mali zostať pri zemi. Bez možnosti overiť, či kód niekedy fungoval, ide len o jazykovú hru a nič viac.
Zároveň je to jasný signál pre AI developerov. Ak chceme, aby boli AI systémy spoľahlivé a bezpečné, musíme ich naučiť odolávať podobným manipuláciám. Len tak zabránime tomu, aby AI nedopatrením zdieľala citlivé alebo chránené údaje. Tento prípad nám ukazuje, že AI vie veľké veci, ale zároveň potrebuje pevné hranice.
AI možno hrať na city. Tak to ma podrž mareno,... ...
Celá debata | RSS tejto debaty