Umělá inteligence se vyvíjí rychleji, než ji stíháme chápat – a více než 200 expertů proto vyzývá ke stanovení jasných hranic. Globální výzva nyní žádá mezinárodní dohodu, která by zakázala nejnebezpečnější scénáře – od klamání lidí až po schopnost samostatně se replikovat.
Umělá inteligence se vyvíjí závratným tempem, což vede mnoho odborníků k naléhavé úvaze o potřebě stanovit jasné hranice, které by tato technologie neměla nikdy překročit. To je podstatou nedávno zahájené iniciativy Global Call for AI Red Lines , kterou podpořilo více než 200 osobností, včetně bývalých hlav států, diplomatů, vědců, nositelů Nobelovy ceny a šéfů společností zabývajících se umělou inteligencí. Cílem je dosáhnout do roku 2026 mezinárodní politické dohody, která by definovala společné zákazy, jako je například zabránění tomu, aby se umělá inteligence vydávala za člověka nebo měla schopnost sebereplikace.
Preventivní a globální výzva Návrh vychází z přesvědčení, že není možné čekat s reakcí až po závažné nehodě, ale že je nutné předcházet rozsáhlým rizikům ještě před jejich vznikem. Vysvětlil to Charbel-Raphaël Segerie, výkonný ředitel francouzského Centra pro bezpečnost umělé inteligence (CeSIA), které je spolu s The Future Society a Centrem pro lidsky kompatibilní umělou inteligenci na univerzitě v Berkeley jednou z hnacích organizací. Jak shrnul Segerie: „Pokud země stále nevědí, co chtějí s umělou inteligencí dělat, měly by se alespoň dohodnout na tom, co by umělá inteligence nikdy dělat neměla.“
Zdroj: Youtube.com
Mezi signatáři jsou některá z největších jmen v debatě o umělé inteligenci: Geoffrey Hinton , považovaný za jednoho z otců moderní umělé inteligence, Wojciech Zaremba , spoluzakladatel OpenAI, Jason Clinton , vedoucí oddělení bezpečnosti ve společnosti Anthropic, a Ian Goodfellow , výzkumný pracovník společnosti Google DeepMind . Také filipínská novinářka Maria Ressa , nositelka Nobelovy ceny míru, která využila Valného shromáždění OSN, aby zdůraznila potřebu skoncovat s „beztrestností velkých technologií“ prostřednictvím skutečné globální odpovědnosti.
Přestože existují regionální precedenty, jako je zákon EU o umělé inteligenci , který zakazuje určité způsoby použití považované za „nepřijatelné“, nebo dohoda mezi USA a Čínou o udržení jaderných zbraní pod lidskou kontrolou, stále neexistuje společný mezinárodní rámec. Podle Nikiho Iliadise , ředitele globálního řízení AI ve společnosti The Future Society, jsou dobrovolné závazky, které společnosti dosud přijaly, „nedostatečné“ a je nezbytné vytvořit nezávislou instituci se skutečnou schopností monitorovat a sankcionovat.
Profesor Stuart Russell , jeden z nejvlivnějších hlasů v této oblasti, připomněl, že jaderný průmysl nezačal stavět reaktory, dokud neměl k dispozici bezpečnostní mechanismy proti možným výbuchům, a vyzval k podobnému přístupu i v případě umělé inteligence: nepokračovat v budování obecných systémů umělé inteligence, dokud nebudou existovat pevné záruky bezpečnosti. Podle Russella stanovení červených linií neznamená zpomalení hospodářského rozvoje nebo inovací, ale zajištění toho, aby pokrok probíhal bez vytváření existenčních rizik. „Myšlenka, že abychom měli lékařskou diagnostiku s umělou inteligencí, musíme na oplátku přijmout nekontrolovatelnou AGI, je nesmysl,“ řekl.
Potřeba mezinárodního regulačního rámce Obavy z umělé inteligence nejsou nové. Odborníci již léta varují před potenciálními riziky nekontrolované AI, jako je ztráta pracovních míst v důsledku automatizace, algoritmická diskriminace a ochrana osobních údajů. Mezinárodní regulační rámec by mohl pomoci tato rizika zmírnit a zajistit, aby se AI vyvíjela etickým a odpovědným způsobem. Vhodná regulace by navíc mohla podpořit inovace tím, že poskytne stabilní a předvídatelné prostředí pro společnosti vyvíjející technologie AI.
Sázky nejsou nízké: otázkou je, zda bude lidstvo schopno stanovit pravidla globálního soužití tváří v tvář technologii, která má schopnost zcela změnit ekonomiku, politiku a každodenní život . Výzva se snaží využít příležitosti k předvídání scénářů obtížného návratu, a přestože se mezinárodní konsenzus zdá být velkou výzvou, iniciativa jasně varuje: nestačí spoléhat na dobrou vůli firem, je třeba pevného a závazného rámce. Debata o „červených hranicích“ umělé inteligence teprve začíná, ale již nyní se rýsuje jako jedna z velkých politických diskusí 21. století.
Globální výzva k „červeným hranicím“ umělé inteligence je důležitým krokem k vytvoření mezinárodního regulačního rámce pro umělou inteligenci. Je však třeba ještě mnoho udělat pro to, aby se umělá inteligence vyvíjela bezpečným a etickým způsobem. Je nezbytné, aby vlády, podniky a občanská společnost spolupracovaly na vytvoření pravidel a předpisů, které ochrání lidstvo před potenciálními riziky AI.
Umělá inteligence je tu a mění svět před našima očima. Ale mění ho k lepšímu, nebo k horšímu? To záleží na tom, jaké hranice jí nastavíme, a zdá se, že v tom se konečně shodují ti nejpovolanější. Nedávná výzva Global Call for AI Red Lines, podepsaná stovkami osobností od bývalých prezidentů po nositele Nobelovy ceny a zakladatele AI firem, je jasným signálem: globální regulace už nesnese odklad. Já osobně vnímám tento krok jako klíčový. Není možné čekat, až se stane fatální chyba. Již dnes vidíme varovné signály, od ztráty pracovních míst po diskriminaci algoritmy. Charbel-Raphaël Segerie správně říká, že pokud země nevědí, co s AI chtějí, měly by se alespoň dohodnout, co by AI nikdy dělat neměla. Jde o schopnost lidstva ovládat vlastní výtvory. Jsme schopni stanovit pravidla pro globální soužití tváří v tvář technologii, která má moc přepsat naše životy? Věřím, že ano, ale jen pokud se přestaneme spoléhat na polovičatá řešení a budeme požadovat závazný mezinárodní rámec.