Search
Generic filters
Exact matches only
Filter by Custom Post Type
Zkuste vyhledat např.   Gramatika, Čeština, Pravopis

Evropská komise představila nový kodex pro AI/umělou inteligenci

Hello 0

Evropská komise v minulém týdnu zveřejnila dlouho očekávaný dobrovolný kodex postupů určený pro poskytovatele výkonných systémů umělé inteligence. Tento klíčový dokument má za cíl objasnit povinnosti a odpovědnosti vyplývající z nového unijního Aktu o umělé inteligenci a stanovit jasné směrnice pro největší technologické společnosti působící v EU.

Rozsah a cíle kodexu

Kodex se primárně zaměřuje na takzvané generativní modely umělé inteligence, mezi které patří nejznámější systémy současnosti jako ChatGPT od společnosti OpenAI, Claude od společnosti Anthropic, Gemini od Googlu, ale také další pokročilé modely včetně těch od evropských firem jako Mistral nebo systémů od společnosti Meta.

Dokument má specificky upravovat zacházení s rozsáhlými jazykovými modely (General Purpose AI – GPAI), které představují nejpokročilejší kategorii současných AI systémů. Tyto modely mají schopnost generovat text, kód, obrázky a další obsah na základě uživatelských požadavků a představují tak značný potenciál i riziko.

Kodex je důležitý kvůli tomu, aby byly ty nejpokročilejší modely AI v Evropě nejen inovativní, ale i bezpečné a transparentní.

Právní kontext a časové plánování

Absence tohoto kodexu v minulosti vedla k výraznému tlaku ze strany technologického sektoru. Klíčoví hráči včetně amerických gigantů Google a Meta Platforms, ale také evropské společnosti jako Mistral a ASML, vyzvali k odložení zavedení nové legislativy v oblasti AI. Kodex byl původně plánován k zveřejnění již 2. května, jeho vydání se však opozdilo z důvodu složitých jednání mezi jednotlivými zúčastněnými stranami.

Akt o umělé inteligenci, jehož součástí je tento kodex, představuje první účelovou regulaci AI na světě. Byl oficiálně přijat v srpnu loňského roku a jeho různé části budou vstupovat v platnost postupně. První ustanovení nabydou účinnosti již 2. srpna letošního roku.

Při detailnější analýze nového evropského Aktu o AI však vyvstává řada problematických aspektů, které zpochybňují jeho skutečnou efektivitu. Zatímco regulace skutečně adresuje některé závažné oblasti, jako je biometrické rozpoznávání obličeje známé z čínského systému sociálního skórování, její celkový dopad zůstává diskutabilní.

Zásadním problémem je skutečnost, že kodex zůstává dobrovolný, což výrazně oslabuje jeho potenciální účinnost při předcházení diskriminačním praktikám. Společnosti si tak mohou vybrat, zda se budou řídit stanovenými pravidly, což v praxi znamená, že nejproblematičtější aktéři mohou pokračovat ve svých praktikách bez jakýchkoliv důsledků.

Ještě palčivější je však naprosté opomenutí jednoho z nejkontroverzněších aspektů současného AI průmyslu – masivního scrapování obsahu z internetu bez jakékoliv kompenzace původním tvůrcům. Technologické giganty jako OpenAI, Google či Meta systematicky vytěžují obsah novinářů, spisovatelů a dalších content creatorů pro trénování svých AI modelů, aniž by za to platili jedinou korunu. Tato praxe fakticky představuje legalizovanou krádež duševního vlastnictví v masivním měřítku.

Absence revenue-sharing modelu nebo jakéhokoliv kompenzačního mechanismu pro vydavatele a tvůrce obsahu naopak za mě představuje obrovskou mezeru v regulaci. Zatímco EU se zaměřuje na relativně okrajové otázky jako rozpoznávání emocí na pracovišti, zcela ignoruje fundamentální ekonomickou nespravedlnost, kdy multimiliardové korporace budují své AI impéria na práci druhých bez jejich souhlasu či odměny.

Akt o AI definuje 4 úrovně rizika pro AI systémy:

Nepřijatelné riziko

Všechny AI systémy považované za jasnou hrozbu pro bezpečnost, živobytí a práva lidí jsou zakázány. Akt o AI zakazuje osm praktik:

  1. škodlivá AI-based manipulace a klamání
  2. škodlivé AI-based zneužívání zranitelností
  3. sociální skórování
  4. individuální hodnocení nebo predikce rizika trestného činu
  5. necílené scrapování internetu nebo CCTV materiálu pro vytváření nebo rozšiřování databází rozpoznávání obličeje
  6. rozpoznávání emocí na pracovištích a ve vzdělávacích institucích
  7. biometrická kategorizace k odvození určitých chráněných charakteristik
  8. biometrická identifikace v reálném čase pro účely vymáhání práva ve veřejně přístupných prostorech

Vysoké riziko

AI případy použití, které mohou představovat vážná rizika pro zdraví, bezpečnost nebo základní práva, jsou klasifikovány jako vysoce rizikové. Tyto vysoce rizikové případy použití zahrnují:

  • AI bezpečnostní komponenty v kritické infrastruktuře (např. doprava), jejichž selhání by mohlo ohrozit život a zdraví občanů
  • AI řešení používaná ve vzdělávacích institucích, která mohou určovat přístup ke vzdělání a průběh profesního života (např. hodnocení zkoušek)
  • AI-based bezpečnostní komponenty produktů (např. AI aplikace v roboticky asistované chirurgii)
  • AI nástroje pro zaměstnanost, management pracovníků a přístup k samostatnému podnikání (např. software pro třídění CV při náboru)
  • Určité AI případy použití využívané k poskytnutí přístupu k základním soukromým a veřejným službám (např. úvěrové skórování odepírající občanům možnost získat půjčku)
  • AI systémy používané pro vzdálenou biometrickou identifikaci, rozpoznávání emocí a biometrickou kategorizaci (např. AI systém pro retroaktivní identifikaci zloděje)
  • AI případy použití ve vymáhání práva, které mohou zasahovat do základních práv lidí (např. hodnocení spolehlivosti důkazů)
  • AI případy použití v migraci, azylu a řízení hraniční kontroly (např. automatizované zkoumání žádostí o víza)
  • AI řešení používaná ve správě spravedlnosti a demokratických procesech (např. AI řešení pro přípravu soudních rozhodnutí)

Vysoce rizikové AI systémy podléhají přísným povinnostem předtím, než mohou být uvedeny na trh:

  • adekvátní systémy hodnocení a zmírňování rizik
  • vysoká kvalita datasetů napájejících systém pro minimalizaci rizik diskriminačních výsledků
  • logování aktivity pro zajištění sledovatelnosti výsledků
  • podrobná dokumentace poskytující všechny informace nezbytné o systému a jeho účelu pro úřady k posouzení jeho souladu
  • jasné a adekvátní informace pro uživatele
  • vhodná opatření lidského dohledu
  • vysoká úroveň robustnosti, kybernetické bezpečnosti a přesnosti

Omezené riziko

Toto se týká rizik spojených s potřebou transparentnosti kolem použití AI. Akt o AI zavádí specifické povinnosti zveřejnění, aby se zajistilo, že lidé jsou informováni, když je to nutné pro zachování důvěry. Například při používání AI systémů jako jsou chatboti, lidé by měli být upozorněni, že interagují se strojem, aby mohli učinit informované rozhodnutí.

Navíc poskytovatelé generativní AI musí zajistit, že AI-generovaný obsah je identifikovatelný. Kromě toho určitý AI-generovaný obsah by měl být jasně a viditelně označen, jmenovitě deepfaky a text publikovaný s účelem informovat veřejnost o záležitostech veřejného zájmu.

Minimální nebo žádné riziko

Akt o AI nezavádí pravidla pro AI, která je považována za minimální nebo bez rizika. Naprostá většina AI systémů aktuálně používaných v EU spadá do této kategorie. To zahrnuje aplikace jako AI-poháněné videohry nebo spam filtry.

AI Act bude dobrovolný

Připojení se ke kodexu zůstává stále jen dobrovolnou aktivitou, což představuje kompromis mezi regulačními požadavky a potřebami inovativního technologického sektoru. Firmy, které se rozhodnou kodex nepodepsat, však mohou přijít o významné výhody, především o právní jistotu, kterou signatářům dokument poskytuje.

Tato právní jistota je obzvláště důležitá v kontextu budoucího vymáhání pravidel. Společnosti, které se ke kodexu připojí a budou dodržovat jeho ustanovení, budou mít jasnou představu o tom, co se od nich očekává, a budou méně vystaveny riziku sankcí nebo právních sporů.

Některé technologické společnosti již naznačily, že se ke kodexu nemusí přihlásit, což ukazuje na pokračující nátlak mezi regulačními orgány a technologickým sektorem ohledně rozsahu a způsobu regulace AI.

Konkrétní povinnosti a opatření

Signatáři kodexu se zavazují k implementaci řady konkrétních technických a organizačních opatření. Mezi klíčové požadavky patří:

Ochrana autorských práv – společnosti musí zavést robustní technická opatření, která zabrání jejich AI systémům v generování obsahu porušujícího autorská práva. To zahrnuje implementaci filtrů a kontrolních mechanismů během trénovacího procesu i při samotném provozu systémů. Cílem je odstranit nebo zablokovat výstupy, které přímo reprodukují chráněné texty, obrázky, hudbu nebo jiné dílo.

Jak bude toto opatření naplňováno a vymáháno, když celé jazykové modely stojí v podstatě na tom, že budou používat obsah chráněný autorským zákonem? Nijak :-). Bude to jen další dokument, ve kterém se bude hrabat tisíce specialistů a právníků a mezitím technologické firmy, než se tento rámec stanoví, přijdou s další obechcávkou těchto pravidel, aby mohli pokračovat dále.

Velké jazykové modely, jako GPT od OpenAI, Gemini od Googlu nebo Claude od Anthropic, byly trénovány na miliardách dokumentů. Ačkoliv tvůrci tvrdí, že většina dat pochází z veřejně dostupných zdrojů, do tréninkových sad často spadají i: knihy, články a příspěvky chráněné autorským právem, texty, které byly sice veřejně přístupné, ale ne bezlicenčně použitelné, obsah bez informovaného souhlasu původních autorů.

EU AI Act navíc neříká, že firmy nesmí použít chráněný obsah, ale klade následující povinnosti:

  • Transparentnost tréninkových dat – poskytovatel musí zveřejnit obecný seznam kategorií použitých dat (např. „encyklopedie“, „veřejné weby“, „licencované publikace“).
  • Respektování TDM opt-outu – pokud autor v metadatech jasně označil, že si nepřeje, aby jeho obsah byl použit pro text-and-data mining, firma to musí respektovat. (byť Google pro AI Overviews sám toto nyní přímo dělá a obchází robot.txt pravidla, která právě toto definují)
  • Omezení na území EU – pravidla platí nejen pro modely vytvořené v EU, ale i pro ty, které zde poskytují své výstupy uživatelům.
  • Filtrování výstupů – AI nesmí generovat výstupy, které porušují copyright, tedy například parafrázovat články za paywallem nebo doslova opakovat cizí díla (což stejně dělá a dělat následující roky bude – jen to budou asi schopná řešit jen velká vydavatelství a mediální domy, menší publisheři bude Google i OpenAI dále okrádat o data v klidu dále).

Co se tedy bude dít dál? Jediný skutečně reálný nástroj pro ochranu autorských práv autorů se tak stane nejspíše soudní spor. V roce 2025–2026 očekávejme sérii právních sporů (např. New York Times vs. OpenAI už běží), firmy se budou snažit „očistit“ tréninkové datasety (např. Meta oznámila v červnu 2025, že v Evropě nevyužije veřejná data z Facebooku/Instagramu kvůli riziku porušení GDPR a copyrightu), vznikne nový trh s licencovanými tréninkovými daty – kde tvůrci obsahu poskytnou data výměnou za poplatek nebo podíl. Jak takové tréninkové očištění bude probíhat, můžeme opět nechat v oblasti dohadů. Představa, že Meta smaže biliony tréninkových dat, které ji mohou generovat další příjmy z reklam, je dosti naivní.

Očekávejme, že v letech 2025–2027 a i potom vzroste počet žalob vůči velkým hráčům, které budou podávat mediální domy, akademické instituce i jednotliví autoři.

Kontinuální testování – modely musí procházet pravidelným testováním podle kritérií stanovených v Aktu o AI. Tato kritéria zahrnují hodnocení bezpečnosti, spolehlivosti, transparentnosti a potenciálních rizik.

AI Act stanoví, že každý model nasazený na evropském trhu musí pravidelně procházet testováním, které ověří:

  • bezpečnost výstupů (např. aby model negeneroval závadný nebo nepravdivý obsah),
  • transparentnost (aby bylo možné dohledat, jak ke konkrétní odpovědi došlo),
  • odolnost vůči manipulaci (např. prompt injection nebo bias),
  • spolehlivost v různých jazykových a kontextových variantách.

Jenže: co přesně znamená „testování“ u systému, který má miliardy parametrů a je v každé chvíli trénován jinak? Nehrozí, že to v praxi to povede k tomu, že společnosti budou vytvářet interní reporty a sady testovacích scénářů, které mohou – ale nemusí – odpovídat reálnému nasazení? Tak jako tomu je běžně u velkých firem, kdy se v této změti dokumentů a podvržených dat může fundovaně zorientovat jedině nějaký insider, který firmu již opustil, protože jinak se taková pravda zjistit v podstatě nedá. Protože představa, že firmy, které patří k nejbohatším firmám na světě se jen tak zbaví své hlavní konkurenční výhody, je za mě nereálná a že někdo dokáže do podrobnosti popsat, jak takový model funguje a zda funguje správně, aniž by nad tím někdo nestrávil desítky let, je za mě velice těžká, nehledě na to, že všechny firmy si budou bedlivě hájit své technologické know-how, takže to jen povede nejspíše k tomu, že se udělá nějaký následující model.

Společnost vytvoří vlastní testovací scénáře – např. sady otázek a vstupů, na které model odpovídá. Výsledky se porovnají s „žádoucím“ výstupem – např. neutrálním, pravdivým, neškodným. Vznikne interní dokumentace a reporty, které ukazují, že model „vyhovuje“ bezpečnostním a etickým kritériím. Tyto výsledky se následně předkládají regulátorům nebo externím auditorům – kteří ale často nemají přímý přístup k systému, pouze posuzují předložené důkazy. Čili opět velká šance manipulovat s čímkoliv. Je to asi jako kdybyste chtěli po Googlu, aby vám popsal, jak funguje jeho systém vyhledávání a reklamní systém, jaké faktory bere v potaz – kromě toho, že to asi rozhodně nebude schopný popsat jeden člověk, protože do toho bude vstupovat tisíce parametrů, tak vám tuto informaci společnost za žádnou cenu nesdělí (ochrana technického know-how, ale zaklínat se bude tím, aby nikdo nemanipuloval s výsledky vyhledávání :-)).

Skutečný dohled bude zpožděný, neúplný a velmi náročný, protože bude záviset na výkladu složitých reportů, které si firmy v podstatě připraví nejspíše dopředu samy.

Zkrátka, představa, že největší technologické korporace na světě – které v AI mají náskok několika let a investice v řádech miliard dolarů – dobrovolně otevřou své modely, zpřístupní know-how a vystaví se detailnímu auditu, je přinejmenším naivní. Reálné testování a vymáhání bude narážet nejen na technologické bariéry, ale hlavně na asymetrii moci mezi regulátorem a korporátem a když se objeví nějaký problém, tak bude snaha zdržovat, respektive regulátor bude reagovat vždy až potom, co se něco stane a pak bude trvat další roky, než se určí, zda se problém stal, zda je to na pokutu, případně zda firma stihla daný úlet opravit a jak, zda zneužila nějaký zákon/své postavení. Reálně to je na roky a během té doby už bude taková firma úplně někde jinde a napáchané škody už se prostě staly (sem můžeme zařadit například šíření dezinformací ve chvíli, kdy bude někdo LLM modely zneužívat ke svému prospěchu).

Monitoring po nasazení – u nejpokročilejších modelů je vyžadován nepřetržitý monitoring po jejich uvedení do provozu. To zahrnuje sledování výkonu, identifikaci potenciálních problémů a rychlou implementaci nápravných opatření.

AI Act zavádí pro tzv. systémy se systemickým rizikem (tedy největší a nejvlivnější modely, jako je GPT, Gemini, Claude…) povinnost nepřetržitého monitoringu po jejich nasazení. V praxi to znamená, že společnosti musejí:

  • sledovat výkonnost modelu v reálném čase – tj. chování AI při interakcích s uživateli,

  • identifikovat rizikové výstupy, které by mohly vést k šíření dezinformací, diskriminaci, porušení práv nebo ohrožení bezpečnosti,

  • zaznamenávat incidenty a uchovávat data pro následnou analýzu,

  • zavést systém včasné nápravy, tedy schopnost rychle změnit chování modelu (např. pomocí nového fine-tuningu nebo zásahů do prompt filtrů).

Zdá se vám, že spojení ku předu vypadá poněkud divně? Máte pravdu! Jedná se o pravopisnou chybu. Pravopisně správně je kupředu!Jedná se totiž o příslovečnou spřežku. Bohužel si nemůžeme pomoc žádnou snadno zapamatovatelnou poučkou, takže bude nejlehčí, když si správnou podobu slova kupředu uložíte do svých mozkových závitů. Nebo se v případě potřeby podívejte sem. Nám...

Externí hodnocení – společnosti musí umožnit přístup externím hodnotitelům, kteří budou nezávisle posuzovat bezpečnost a spolehlivost jejich systémů. Tato transparentnost je klíčová pro budování důvěry veřejnosti v AI technologie.

Flexibilita a adaptabilita

Evropská komise v kodexu záměrně ponechala určitou míru pružnosti při vyhodnocování možných rizik. Tato flexibilita má umožnit společnostem přizpůsobit svůj přístup specifickým charakteristikám jejich AI systémů a technologií.

Tento přístup reflektuje rychle se vyvíjející povahu AI technologií a potřebu regulačního rámce, který dokáže držet krok s inovacemi, aniž by je zbytečně omezoval.

Časový harmonogram implementace

Implementace nových pravidel bude probíhat postupně podle jasně stanoveného harmonogramu:

  • 2. srpna 2024 – vstup některých částí Aktu o AI v platnost – zatím nejde o plošné vymáhání všech pravidel, týká se především povinností pro veřejné instituce, některých registrací a začátku činnosti nově vzniklých dozorových orgánů, členské státy začínají vytvářet národní implementační rámce (např. kdo bude dozorovým úřadem v dané zemi, jak bude probíhat certifikace atd.).
  • srpen 2026 – začátek vymáhání pravidel pro nové modely. Od tohoto data bude platit: všechny nově uváděné systémy s vysokým rizikem (např. AI pro zdravotnictví, autonomní řízení, vzdělávání, nábor) musí splňovat požadavky AI Actu už při svém vstupu na trh, platí to i pro nové verze velkých jazykových modelů (GPAI), pokud budou výrazně odlišné od předchozích, vyžaduje se například: registrace systému do evropské databáze, zajištění transparentnosti trénovacích dat (zejména kvůli autorským právům), zavedení systémů řízení rizik, testování a dokumentace. Nové modely, které tato pravidla nesplní, nebudou smět být v EU zpřístupněny.
  • srpen 2027 – rozšíření vymáhání na stávající modely. Od tohoto okamžiku se pravidla AI Actu vztahují i na systémy, které byly na trhu dříve (tedy na všechny „starší“ modely a služby – např. GPT-4, Claude, Gemini atd., pokud budou stále aktivní). Pro provozovatele to znamená nutnost: zpětně doplnit dokumentaci a certifikace, upravit výstupy modelu, pokud porušují některé zásady (např. autorská práva, bezpečnost, diskriminaci), zajištění auditu a dohledu ze strany příslušného dozorového orgánu.

Tento postupný přístup má dát společnostem dostatek času na přípravu a implementaci požadovaných opatření.

Evropský AI Act: Nová éra regulace umělé inteligence

Evropská unie přijala historicky první komplexní regulaci umělé inteligence – AI Act (Nařízení EU 2024/1689), která vstoupila v platnost 1. srpna 2024. Tato regulace stanovuje jasná pravidla pro vývoj, implementaci a používání AI systémů v EU a představuje zásadní krok k vytvoření bezpečného a důvěryhodného prostředí pro rozvoj AI technologií.

Zakázané a vysoce rizikové AI systémy

AI Act rozděluje problematické AI systémy do dvou hlavních kategorií – zcela zakázané systémy s nepřijatelným rizikem a vysoce rizikové systémy podléhající přísné regulaci:

Zakázané AI systémy (nepřijatelné riziko)

Podle Článku 5 AI Act jsou zakázané následující AI systémy:

  • Rozpoznávání obličeje v reálném čase: Biometrická identifikace na veřejných místech pro účely prosazování práva je zakázána, s velmi omezenými výjimkami pouze pro vyhledávání obětí únosů, prevenci bezprostřední hrozby pro život nebo lokalizaci podezřelých ze závažných trestných činů
  • Biometrická kategorizace: Systémy, které z biometrických dat odvozují rasu, politické názory, náboženské přesvědčení, sexuální orientaci nebo členství v odborech
  • Prediktivní hodnocení kriminality: AI systémy předpovídající kriminální chování pouze na základě profilování osobnostních rysů bez konkrétních objektivních důkazů
  • Rozpoznávání emocí: Zakázáno na pracovištích a ve vzdělávacích institucích (kromě lékařských a bezpečnostních účelů)
  • Vytváření databází obličejů: Necílené stahování internetového nebo CCTV materiálu pro rozšiřování databází rozpoznávání obličeje

⚠️ Pozor na mylné informace: Systémy pro hodnocení kreditního rizika NEJSOU zakázané. Finanční instituce mohou nadále zákonně používat AI pro posuzování úvěruschopnosti na základě finančního chování klientů.

Proč jsou tyto systémy problematické?

Rozpoznávání obličeje a biometrická identifikace představují riziko masového sledování občanů a narušení soukromí. Mohou vést k autoritářskému zneužití a obsahují vysoké riziko chybné identifikace, zejména u etnických menšin.

Biometrická kategorizace umožňuje diskriminaci na základě citlivých osobních charakteristik a porušuje základní lidská práva na soukromí a rovné zacházení.

Prediktivní policing bez konkrétních důkazů může vést k nespravedlivému profilování a diskriminaci menšin, kde algoritmy mohou reprodukovat historické předsudky.

Rozpoznávání emocí na pracovištích a ve školách trpí problémy s přesností napříč různými kulturami a může vést k nespravedlivému hodnocení zaměstnanců nebo studentů.

Vysoce rizikové AI systémy

Systémy, které nejsou zakázané, ale představují vysoké riziko, podléhají přísným regulačním požadavkům podle Článku 6 AI Act včetně:

  • Povinnosti hodnocení dopadu na základní práva
  • Dokumentace a transparentnosti
  • Lidského dohledu
  • Kvalitních trénovacích dat
  • Pravidelného monitorování po uvedení na trh

🚨 Sankce: Použití zakázaných AI systémů může vést k pokutám až 35 milionů EUR nebo 7% globálního ročního obratu, podle toho, která částka je vyšší. (Zdroj: IBM – EU AI Act)

Globální kontext a konkurenceschopnost

Evropský přístup k regulaci AI je pozorně sledován po celém světě. Zatímco někteří kritici varují před rizikem ztráty konkurenceschopnosti vůči méně regulovaným trhům, zastánci zdůrazňují důležitost vytvoření důvěryhodného a bezpečného prostředí pro vývoj AI.

AI Act je založen na rizikovém přístupu a rozděluje AI systémy do čtyř kategorií rizika: nepřijatelné riziko (zakázané), vysoké riziko, omezené riziko a minimální riziko. Regulace má také sloužit jako praktický návod pro vývojáře a provozovatele AI systémů, jak efektivně naplňovat stanovené normy a požadavky.

Ekonomické dopady na trh práce a nedostatek AI talentů

Paralelně s regulačními změnami se na globálním trhu práce rozhořela intenzivní soutěž o experty na umělou inteligenci. Velké technologické firmy jako Meta, OpenAI, Google, Microsoft i další významné společnosti v posledních měsících výrazně zintensivnily své snahy o získání špičkových talentů.

Nabízené kompenzace dosahují rekordních výšin. Podle Levels.fyi dosáhly platy AI inženýrů v USA průměru $300,600 v březnu 2024, zatímco seniorní AI výzkumníci v Big Tech firmách mohou vydělat mezi $500,000 až $2,000,000 ročně.

Vysoké platy zahrnují nejen základní mzdy, ale také akciové opce, bonusy za výkonnost a speciální benefity. Některé společnosti dokonce nabízejí retention bonuses – zvláštní odměny za zůstání ve firmě.

Podle McKinsey Global Institute se nedostatek kvalifikovaných AI odborníků stal jedním z hlavních omezujících faktorů růstu v technologickém sektoru. Průzkum z roku 2024 ukázal, že 46% vedoucích pracovníků označuje nedostatek AI talentů za hlavní překážku ve vývoji AI nástrojů.

Reakce technologického sektoru

Reakce technologických společností na AI Act jsou smíšené. Zatímco někteří velcí hráči jako IBM a SAP vyjádřili podporu regulačnímu rámci, jiní včetně některých startupů varují před nadměrnou byrokracií.

Digital Europe, která zastupuje evropský technologický průmysl, vydala prohlášení, ve kterém vítá flexibilní přístup AI Act, ale zároveň vyzývá k dalšímu zjednodušení administrativních požadavků.

Mezinárodní srovnání

Evropský přístup k regulaci AI se výrazně liší od přístupů v USA a Číně:

  • Spojené státy – spoléhají primárně na samoregulaci a sektorové směrnice.
  • Čína – implementuje centralizovaný systém kontroly AI technologií.
  • Singapur a Kanada – představují střední cestu mezi evropským regulačním přístupem a americkou samoregulací.

Dopad na výzkum a vývoj

AI Act bude mít významný dopad na výzkum a vývoj AI technologií v Evropě. Univerzity a výzkumné instituce budou muset přizpůsobit své výzkumné programy novým požadavkům, přičemž systémy určené výhradně pro vědecký výzkum a vývoj jsou z regulace vyňaty.

Horizon Europe, hlavní evropský program pro výzkum a inovace, již v minulosti alokoval významné prostředky na podporu odpovědného vývoje AI technologií v souladu s novými směrnicemi (cca 1 miliardu EUR, ale tyto prostředky nejdou samozřejmě jen na odpovědný vývoj AI, ale i na další oblasti – ale je to jedna z hlavních priorit a pokračuje i v roce 2025 jako jedno z hlavních témat).

Ekonomické přínosy a náklady

Podle studií analytiků:
Implementace AI Act může v krátkodobém horizontu zvýšit náklady technologických společností, ale dlouhodobě přinést vyšší důvěru spotřebitelů a investorů. Transparentní a důvěryhodné AI systémy mohou získat významné konkurenční výhody na trhu.

Sankce za nedodržení:
Pokuty mohou dosáhnout až 35 milionů EUR nebo 7% celosvětového obratu za nejzávažnější porušení, podle toho, která částka je vyšší.

Budoucí výzvy a implementace

Implementace AI Act představuje významnou příležitost pro evropský technologický sektor ukázat, že inovace a odpovědnost mohou jít ruku v ruce. Regulace bude plně aplikovatelná od 2. srpna 2026, s některými výjimkami pro specifické oblasti.

Úspěch AI Act bude záviset na:

  • Ochotě technologických společností k aktivní spolupráci
  • Schopnosti regulačních orgánů přizpůsobit svůj přístup rychle se vyvíjejícím technologickým realitám
  • Efektivní implementaci v jednotlivých členských státech EU

Evropská komise již avizovala, že AI Act bude pravidelně revidován a aktualizován s ohledem na technologický vývoj a praktické zkušenosti z jeho implementace. Tato adaptabilita bude klíčová pro zajištění dlouhodobé relevance a efektivity regulačního rámce.

  •  
  •  
  •  
  •  

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

*

Ostatní uživatelé také četli:

Pokud si nejste jisti, jak se správně píše slovo zkolabovat, nemusíte zoufat. Rozhodně nejste jediní. Je to oblíbený chyták, který učitelé dávají do diktátů. Když si přečtete náš krátký text, tak už v tomto slově chybovat nebudete. A možná ani v jiných ne. Hned v úvodu prozradíme, že správně je pouze varianta zkolabovat s počátečním písmenem „z“ – tedy...

Pravopisně správně je zpět i spět. Ale pozor na význam! Každá podoba je spojená s jiným významem. Naopak varianta z5 se často objevuje na internetu, ale rozhodně nepatří do spisovné češtiny. Je to novotvar, který sice skvěle dokumentuje ekonomizaci jazyka, ale patří do úplně jiných vrstev jazyka. Ve spisovné češtině pro něj zatím není prostor. Pravopisně...

Slovo, ve kterém chybuje téměř každý, a přitom si to možná ani neuvědomuje. Ano, řeč je o slově viceprezident. Viceprezident totiž neznamená více než prezident. Správný význam je zástupce prezidenta. Pravopisně správně je pouze tvar viceprezident s krátkým písmenem „i“ uprostřed slova. Složený tvar viceprezident totiž nevznikl ze slova více a prezident, ale ze slova prezident...

Dopředu existuje pouze jako spřežka, tudíž jediná správná varianta je psaná dohromady. Příklady SPRÁVNÉHO užití slova dopředu: Vždycky se dívej dopředu, ať do něčeho nenarazíš! Už dopředu jsem věděla, že to dopadne dobře. Všichni se snažili natlačit dopředu, aby co nejlépe viděli. Nikdy se nepohneš dopředu, pokud pro to nic neuděláš. Dívala se dopředu před sebe,...

Deník, anebo denník? Deník je odvozený od slova den, nikoliv od slova denní, z tohoto důvodu se píše s jedním n. Napsat denník je nepřípustné.Co může slovo deník vyjadřovat?Může jít o:periodikum vycházející denně (např. celostátní deník, deník Právo),zápisník pro záznam denních událostí (např. lodní deník, osobní deník),kniha pro evidenci korespondence nebo peněžních příjmů a vydání...

Jedním z nejtvrdších pravopisných oříšků jsou koncovky -ovi a -ovy. Správné psaní těchto koncovek může být poměrně problematické a může zamotat hlavu i tomu nejlepšímu češtináři. Jde o koncovku podstatného jména nebo přídavného jména?Nejprve je potřeba rozlišit, zda je koncovka ve tvaru podstatného jména, nebo je snad součástí přídavného jména přivlastňovacího. To lze zjistit velmi...

Mužské jméno Antonín je latinského původu, vychází ze jména Antonius, kterým byli označováni adoptivní příslušníci patricijského rodu Antoniů. Jméno se vykládá jako vynikající, přední či čelný. Kdy slaví Antonín svátek?Antonín slaví, podle českého občanského kalendáře, svátek 13. června (13.6.).Ženská podoba jména AntonínŽenskou podobou jména Antonín je Antonie.Domácké podoby jména AntonínTonda,Tóňa,Toník,Toníček,Tony.Antonín a statistikaKolik žije v ČR...

V České republice bylo mnoho disidentů, kteří se snažili protestovat proti systému. Mezi nejznámější patřil také bývalý prezident Václav Havel. V mnoha příkladech se používá nesprávný tvar – dizident. Správně je disident Pozor na to. Spisovná je pouze varianta disident. Slovo disident se začalo používat v druhé polovině 20. století ve Francii. Označovalo odpůrce totalitních režimů ve východním...

Pokud chcete na klávesnici napsat lomítko naopak neboli obrácené či zpětné lomítko, existuje několik způsobů. Všechny si ukážeme, abyste si mohli vybrat, který zvolíte. Ani jeden není složitý, takže to zvládne každý. Jak udělat obrácené lomítko na klávesnici Nejjednodušší variantou, jak napsat obrácené lomítko, je použití následující klávesové zkratky. Stiskněte pravý Alt, který někdy bývá...
Načíst dalších 10 článků