Predstavte si, že by mobilný prekladač, chatbot na webe alebo generátor obrázkov fungoval úplne bez dozoru a nikto by presne nevedel, z akých dát sa „naučil“ a kto nesie zodpovednosť za chyby. Presne toto sa Európska únia rozhodla zmeniť. Zaviedla nový zákon – AI Act – aby oddeľovala bezpečné a férové použitie umelej inteligencie od takého, ktoré môže ľuďom uškodiť.
Dnes, 1. 8. 2025, prichádza prvá veľká vlna pravidiel. Ak ste len bežný používateľ, možno sa pýtate: „A čo ja s tým?“ Nasledujúce riadky vám to vysvetlia ľudskou rečou.
Stručne: Čo je AI Act a kedy nadobúdal účinnosť
Dátum | Čo sa stalo | Čo to znamenalo |
---|---|---|
1. 8. 2024 | Zákon AI Act začal platiť | Spustil sa rok príprav |
2. 2. 2025 | Zakázané „extrémne“ použitia (napr. sociálne skórovanie) | Ochrana súkromia a základných práv |
1. 8. 2025 (dnes) | Prvé povinnosti pre veľké textové a obrazové modely (ChatGPT, Gemini…) | Viac informácií pre nás, menej rizík pri využívaní AI |
1. 8. 2026 | Hlavné pravidlá pre AI vo zdravotníctve, HR či doprave | Kontroly v „citlivých“ odvetviach |
1. 8. 2027 | Doklepnutie posledných technických detailov | Týka sa iba pár najväčších systémov |
Čo sa konkrétne mení od 1. augusta 2025
-
Jasnejšie informácie o tom, z čoho AI čerpá
-
Firmy prevádzkujúce veľké jazykové a obrazové modely musia zverejniť struhý prehľad dát, ktoré použili na trénovanie (napr. „verejné weby, licencované knihy, obrázkové banky“).
-
Podrobnú technickú dokumentáciu kontroluje nový európsky úrad, ale pre nás používateľov pribudne aspoň krátke vysvetlenie.
-
-
Lepšia ochrana autorských práv
-
Ak AI generuje text, fotku či hudbu, poskytovateľ modelu musí dokázať, že buď má licenciu, alebo rešpektuje autorov, ktorí svoje diela z trénovania vyňali („opt-out“).
-
Pre bežného používateľa to znamená nižšiu šancu, že vygenerovaný obrázok poruší copyright.
-
-
“Balík” pre vývojárov aplikácií
-
Kto stavia aplikáciu na GPT-čkach či Geminim, dostane štandardný súbor dokumentov – limity modelu, presnosť, známe riziká a návod, kam hlásiť problémy.
-
-
Dobrovoľný, no výhodný kódex správania
-
Väčšina veľkých firiem už podpísala Kódex praxe. Uľahčí im to dokazovanie, že dodržiavajú zákon. Pre nás používateľov je to signál, že služba prešla aspoň základným auditom.
-
-
Spúšťa sa AI Office
-
Nový európsky orgán bude zhromažďovať dokumentáciu, vyhodnocovať riziká a riešiť vaše sťažnosti. Má 90 dní na odpoveď a online formulár funguje už dnes.
-
Staňte sa expertom na umelú inteligenciu cez online kurz AI developer, kde si prakticky osvojíte Python, LLM-frameworky aj nasadzovanie modelov do produkcie.
Ako to spoznáte v bežnom živote
Včera | Od dnes |
---|---|
Chatbot mohol pôsobiť, akoby s vami písal človek. | V rozhraní pribudne jasné oznámenie „Toto odpovedá AI“ + info o použitom modeli. |
Málo indícií, z čoho sa model učil. | Na webe nájdete link „Ako model pracuje so zdrojmi“. |
Ak AI „ukradla“ obrázok, zistili ste to až spätne. | Prísnejšie licencie = menší priestor na porušenie autorských práv. |
Sťažnosť riešila zákaznícka linka alebo GDPR úrad. | Môžete ísť priamo na AI Office a sledovať stav podania online. |
Čo môžete urobiť vy
-
Sledujte nové štítky – pri generovaných fotkách by mal byť viditeľný text typu „Obrázok vytvorený AI“.
-
Pýtajte sa dodávateľov – ak používate firemné AI riešenie, vyžiadajte si od nich nový „balíček“ informácií.
-
Ostaňte kritickí – AI je skvelý pomocník, ale stále sa môže mýliť alebo halucinovať. Teraz však budete mať jasnejší obraz o tom, prečo sa to stalo a na koho sa obrátiť.
Záver
Od dnešného dňa prestávajú byť veľké AI modely pre bežných ľudí úplnou záhadou. Budeme lepšie vedieť, odkiaľ berú dáta a kto za ne zodpovedá. Firmy zasa dostávajú jasné mantinely – transparentnosť už nie je len „nice-to-have“, ale zákonná povinnosť.
Ak umelú inteligenciu používate denne (a kto nie?), pripravte sa na trochu viac oznamov a odkazov v aplikáciách – no výmenou získate pocit, že AI hrá férovejšiu hru.
Zaveďte automatizáciu firemných procesov AI a premeňte manuálne úlohy na samoobslužné workflow, ktoré pracujú 24/7 bez chýb.
Celá debata | RSS tejto debaty