Na začátku tohoto měsíce začaly hlavní čínské sociální platformy – jako WeChat, Douyin a Weibo – prosazovat první nařízení na světě: každý obsah vytvořený umělou inteligencí musí být jako takový jasně označen. Toto opatření je součástí širšího úsilí o regulaci používání umělé inteligence a zmírnění rizik spojených s dezinformacemi a manipulovaným obsahem.
Opatření reaguje na rychlý nárůst nástrojů, které zpopularizovaly vytváření syntetického textu, obrázků, zvuku a videa během několika sekund. Tyto nástroje, jako jsou DALL-E a ChatGPT, usnadnily vytváření obsahu, který může být k nerozeznání od obsahu vytvořeného člověkem. Zneužití těchto technologií však vyvolalo obavy ohledně pravosti a pravdivosti online informací. Čínská regulace je první svého druhu na světě a představuje významný precedens v oblasti regulace umělé inteligence.
Oficiální cíl: Bezpečnost a transparentnost
Peking opatření zdůvodňuje jako součást své nedávné kampaně „Qinglang“ (což lze zhruba přeložit jako „Jasný a jasný“), jejímž cílem je „vyčistit“ kyberprostor a chránit občany před riziky, jako je např:
- dezinformace a falešné zprávy. Šíření nepravdivého obsahu může podkopat důvěru veřejnosti a destabilizovat společnost.
- Podvody online. Technologie umělé inteligence lze využít k vytváření sofistikovanějších a hůře odhalitelných podvodů.
- Porušování autorských práv. Vytváření syntetického obsahu může porušovat autorská práva replikováním chráněných děl.
- Deepfakes, které ohrožují „individuální a národní bezpečnost“. Deepfakes mohou být použity k manipulaci s veřejným míněním nebo k poškození pověsti jednotlivců.
@harpercarrollai AI watermarks act like invisible labels that help people tell if something was created by artificial intelligence. This new tech by Google DeepMind adds these watermarks to AI-generated content, but it has several issues that limit its effectiveness as a complete solution. What do you think about this tech? How would you propose we implement AI watermarking? Hi, I’m Harper, AI educator, engineer and advisor. ••• My goal is to democratize AI, so everyone can understand it, use it, and make informed decisions about it. Happy you’re here. ••• I have two degrees in Computer Science specializing in Artificial Intelligence experience teaching PhD-level AI courses there, and 4+ years building AI you want to learn about AI, and let me know in the comments if there’s anything specific you want to learn about. #news #research #airesearch #techeducation #scientistlife #alwaysbelearning #techvideos #techfacts #techtalk #techinnovation #techforgood #womenintechnology #techlovers #factsoftheday #techupdates #technologysolutions #technologytrends #instatechnology #scientists #techtrends #techlife #techlover #artificialintelligence #deepmind #google #sciencenews #aiart
♬ original sound – Harper Carroll AI | Expert Ed
Teoreticky má označování obnovit důvěru uživatelů a zabránit tomu, aby syntetický obsah narušoval důvěryhodnost informací. Doufá se, že díky jasné identifikaci obsahu vytvořeného umělou inteligencí budou uživatelé schopni lépe rozeznat zdroj a povahu obsahu, který konzumují.
Co přesně zákon vyžaduje?
Nařízení, jehož iniciátorem je Čínská správa kyberprostoru (CAC) spolu s dalšími klíčovými ministerstvy, nařizuje, aby každý syntetický obsah nesl dva typy identifikátorů:
- Explicitní: viditelné pro uživatele, jako jsou vodoznaky na obrázcích, varování na videích nebo vysvětlující text na začátku nebo na konci dokumentu. Tyto značky pomáhají uživatelům rychle identifikovat obsah vytvořený umělou inteligencí.
- Implicitní: lidskému oku neviditelné, vložené do metadat. Patří sem digitální značky, které umožňují sledovacím platformám a algoritmům rozlišovat mezi obsahem vytvořeným člověkem a umělou inteligencí. Tyto identifikátory usnadňují sledování a ověřování obsahu na technické úrovni.
Platformy mají navíc povinnost tato metadata ověřovat a přidávat varování i v podezřelých případech, a to i v případě, že tvůrce použití umělé inteligence neuvedl. Z toho vyplývá, že platformy by měly vyvinout pokročilé schopnosti proaktivního odhalování a označování obsahu vytvořeného AI.
Problémy a omezení tohoto opatření
Ačkoli je tento systém ambiciózní, není bez problémů:
- Snadno se mu dá vyhnout. Kyberzločinci mohou odstranit vodoznaky nebo šířit snímky obrazovky bez metadat, což ztěžuje jejich sledování. Zákon samozřejmě také zakazuje odstraňování, manipulaci, falšování nebo skrývání těchto značek umělé inteligence nebo poskytování nástrojů, které k tomu napomáhají. Zločincům to ale pravděpodobně bude jedno. Účinnost opatření bude do značné míry záviset na schopnosti orgánů tyto zákazy vymáhat.
- Nevybíravé označování. Nařízení nerozlišuje mezi drobnou estetickou retuší – například zlepšením rozlišení obrázku – a manipulativním deepfake: všechny dostanou stejné varování, což může snížit legitimitu kreativního nebo neškodného použití. Toto nedostatečné rozlišení by mohlo odradit od používání umělé inteligence pro legitimní a kreativní účely.
- Únava uživatelů. Se záplavou označeného obsahu hrozí, že si uživatelé internetu na varování zvyknou a budou je ignorovat, jako je tomu již v případě hromadných souhlasů s ochranou soukromí. Přetížení informacemi může vést k tomu, že uživatelé budou štítky ignorovat, což sníží jejich účinnost.
- Dopad na soukromí. Identifikátory v metadatech by mohly odhalit citlivé informace (poloha, zařízení, související účty). To vyvolává obavy o soukromí uživatelů a možné zneužití těchto údajů.
Globální precedens
Čína je první zemí, která zavedla zákonnou povinnost systematicky rozlišovat mezi lidským a umělým obsahem. Západ, ačkoli o podobných iniciativách diskutuje – jsou to již dva roky, co vládnoucí koaliční strana Sumar takový návrh předložila -, postupuje stále pomaleji. Zavedení podobných opatření v jiných zemích by mohlo narazit na jedinečné právní a kulturní problémy.
Povinné označování obsahu vytvořeného umělou inteligencí v Číně je rozsáhlým experimentem, jehož důsledky dalece přesahují rámec technologie. Na první pohled jde o strategii proti dezinformacím a rizikům deepfakes, ale zároveň posiluje ekosystém dohledu a kontroly internetu v zemi. Tento krok lze považovat za součást širšího úsilí čínské vlády o větší kontrolu nad tokem informací online.
@iamkylebalmer China is taking AI very (very) seriously – not just the techies but the general public. I just came out of one of Beijing’s bookshops and it’s all DeepSeek, chatgpt and artificial intelligence related. Super exciting #ai #chatgpt #deepseek #china
♬ original sound – iamkylebalmer
To, co se stane v Číně, poslouží jako laboratoř pro zbytek světa: pokud se systém ukáže jako skutečně účinný proti digitální manipulaci, mohl by inspirovat podobná nařízení i jinde. I když je možné, že se stejným směrem vydá ještě několik zemí, než budeme mít o výsledcích čínského experimentu jasno. Čínská zkušenost by mohla poskytnout cenné poučení o tom, jak vyvážit regulaci umělé inteligence s ochranou svobody projevu a soukromí.