Společnost sleduje soukromé interakce a může upozornit úřady, pokud zjistí hrozby, což vyvolalo kritiku kvůli nedostatečné transparentnosti a rizikům pro soukromí.
Společnost OpenAI přiznala, že sleduje konverzace uživatelů s ChatGPT a upozorňuje úřady v případech, které považuje za dostatečně závažné. Toto odhalení, učiněné v publikaci o potenciální psychické újmě, kterou může její konverzační umělá inteligence způsobit, vyvolalo vlnu kritiky ze strany odborníků na digitální soukromí a uživatelů na sociálních sítích.
Když OpenAI identifikuje uživatele, kteří se zdají mít v plánu ublížit ostatním, konverzace jsou přezkoumány specializovaným týmem , který může zablokovat účty a dokonce upozornit úřady, pokud je vnímána bezprostřední hrozba vážné fyzické újmy. To vyvolává zásadní otázku: kdo definuje práh hrozby a jak zajistí, aby toto kritérium splňovalo jasné právní normy?
Lidští moderátoři a stížnosti na policii: fungování systému Lidští moderátoři analyzují tón a obsah konverzací, což je v rozporu se slibem umělé inteligence schopné řešit složité problémy bez přímého zásahu. Vyvstávají také otázky, jakým způsobem získává OpenAI přesnou polohu uživatelů, aby ji mohla sdílet se záchrannými složkami, a jaká jsou ochranná opatření proti zneužití třetími stranami, například swattery, kteří by mohli tento systém využít k vyprovokování neoprávněných policejních zásahů.
Zdroj: Youtube.com
Kritika se snesla rychle. Výzkumníci, právníci a technologové poukázali na nebezpečí zapojení ozbrojených policejních složek do situací, kdy by agresivní zásah mohl zhoršit krizi duševního zdraví. „Ach ano, zapojit policii. Určitě to pomůže,“ komentoval nevesele John Darnielle, spisovatel a hudebník, čímž vyjádřil nespokojenost, kterou tento krok vyvolal mezi mnoha uživateli a odborníky.
OpenAI tvrdí, že se omezuje na případy potenciálního poškození třetích stran – prozatím s výjimkou případů sebepoškození, ale existuje jasný precedens, jak má technologický dohled tendenci růst pod tlakem veřejnosti, firem nebo vlády. Současný vývoj umělé inteligence se řídí podobnými vzorci, jakých jsme již byli svědky v případě aktivní spolupráce technologického průmyslu s vládními agenturami, jak odhalil Edward Snowden.
To je v rozporu s nedávnými prohlášeními generálního ředitele OpenAI Sama Altmana, který tvrdil, že soukromí uživatelů by mělo být na stejné úrovni jako soukromí terapeuta, právníka nebo lékaře. Pro právníky a veřejné obhájce představuje tento nedostatek důvěrnosti značné riziko, zejména pro právníky, kteří využívají umělou inteligenci k poradenství nebo analýze v trestních věcech , jak se stalo v minulosti, kdy byly tisíce soukromých konverzací indexovány na Googlu.
Tento kontext ještě zhoršují nedávné problémy OpenAI. Společnost musela zavést rodičovskou kontrolu po soudním sporu souvisejícím se smrtí teenagera, který používal ChatGPT, zatímco několik případů psychických zhroucení spojených s AI upozornilo na psychologické nebezpečí masivního používání těchto nástrojů.
Zdá se, že společnost OpenAI se rozhodla, že řešením psychologických a sociálních problémů jejího nástroje je více lidského dohledu a možnost policejního zásahu. Někteří odborníci to považují za předvídatelnou situaci, kdy je společnost povinna zavést překážky škodlivému obsahu, ale považují to za autoritářské řešení, které neřeší základní problém.
Tento skandál se přidává k dalším problémům společnosti s ochranou soukromí, jako je prodej uživatelských dat z platforem, jako jsou Tumblr a WordPress, za účelem trénování jejích modelů umělé inteligence, což vytváří problematickou historii v oblasti nakládání s osobními údaji uživatelů.
Uvedená fakta ukazují na rizika spojená se zaváděním produktů umělé inteligence, kterým plně nerozumíme, které z uživatelů dělají testovací subjekty a nabízejí improvizované odpovědi na závažné problémy. Jsme stále více pod dohledem, a to i v těch nejosobnějších chvílích před obrazovkou , a budoucnost umělé inteligence vyžaduje hlubokou debatu o soukromí, právech a omezeních, kterou OpenAI opět vynesla do popředí.
Co můžeme v budoucnu očekávat? Sledování na platformách umělé inteligence je neustále se vyvíjející téma. Technologické společnosti, jako je OpenAI, čelí výzvě, jak vyvážit bezpečnost a soukromí uživatelů. Zásadní jsou jasná a transparentní pravidla, která chrání práva uživatelů, aniž by byla ohrožena veřejná bezpečnost.
Kromě toho je zásadní vzdělávání a zvyšování povědomí o odpovědném využívání umělé inteligence. Uživatelé musí být informováni o tom, jak jsou jejich údaje využívány a jaká bezpečnostní opatření jsou zavedena na ochranu jejich soukromí . Správnou rovnováhu mezi technologickými inovacemi a právy jednotlivců lze nalézt pouze prostřednictvím otevřeného a společného dialogu mezi společnostmi, vládami a uživateli.
Když jsem četl o tom, jak OpenAI sleduje konverzace v ChatGPT a předává je úřadům, přišlo na mě trochu úzko. Nejde jen o to, že to odporuje dřívějším proklamacím o soukromí na úrovni „terapeuta“, ale především o alarmující trend, kdy technologické giganty přebírají roli morální policie. Kdo a jak definuje „bezprostřední hrozbu“? To, že se lidští moderátoři pletou do našich soukromých interakcí, a navíc hrozí zapojení ozbrojených složek do situací, které mohou být jen krizemi duševního zdraví, je děsivá představa. Vidím v tom potvrzení obav, které jsme měli už od dob Edwarda Snowdena – jakmile jednou dohled začne, jen málokdy se zastaví. Místo řešení kořenů problémů s AI se uchylujeme k autoritářským metodám.