Umělá inteligence si vymyslela falešné případy a rozsudky, které si právník neověřil, ale přesto je použil ve svůj prospěch.
Jeden z hlavních problémů umělé inteligence se projevuje, když nástroje založené na ní trpí halucinacemi. V podstatě k tomu dochází, když umělá inteligence předkládá vymyšlené informace jako pravdivé, což je aspekt, který dává vzniknout nejrůznějším situacím poznamenaným nekompetentností umělé inteligence. Příběh právníka z advokátní kanceláře Semrad je však jedním z nejpřekvapivějších, které jsme v posledních měsících zažili, neboť se týká řady zákonů a judikátů vymyšlených ChatGPT.
Právník v tomto případě spoléhal na model umělé inteligence OpenAI při vyhledávání právních předpisů souvisejících s bankroty a ekonomickými neúspěchy. Přitom narazil na zcela vymyšlené případy, které nakonec vedly Michaela Sladea (soudce v případu) ke zjištění, že nejenže poskytnuté právní citace neexistují, ale že ani nesouvisejí s údajnými problémy. Příkladem tak může být „In re Jager“, jeden z citovaných případů, který neexistuje, a proto se k němu vztahují vymyšlené citace.

Zdroj: Youtube.com
Problém zneužití umělé inteligence
Thomas Nield, právník, proti němuž byla tato situace namířena, přiznal, že použil nástroje umělé inteligence, a tvrdil, že výsledky nekontroloval, což ho vedlo k přesvědčení, že umělá inteligence nebude chybně fabulovat citace. Ve skutečnosti uvedl, že se omlouvá a že udělal chybu, že umělou inteligenci nikdy nepoužil, a poznamenal, že to byl on, kdo se nahlásil advokátní komoře státu Illinois. Advokátní kancelář se zase postavila proti používání umělé inteligence bez ručního ověřování údajů, což je jeden z hlavních problémů, který stojí za touto akcí.
Ačkoli tedy stáhla žádosti o platbu a došlo k online školení, soudce konstatoval, že „by měly být vyvozeny důsledky“, aby bylo Nieldovo jednání potrestáno. Slade uložil finanční pokutu ve výši 5 000 eur (asi 125 000 Kč), kterou bude muset právník zaplatit úředníkovi konkurzního soudu. Zároveň nařídil Nieldovi a dalšímu vedoucímu advokátovi, aby se osobně zúčastnili zasedání o umělé inteligenci na Národním kongresu konkurzních soudců.
V souvislosti s celým rozruchem soudce kritizoval neznalost rizik používání umělé inteligence bez dalšího ověřování údajů, neboť se domnívá, že tato otázka je již více než dva roky předmětem velké debaty nejen ve společnosti obecně, ale zejména v jeho oboru. Poukázal také na to, že ChatGPT nemá přístup k právním databázím, a proto nevytváří spolehlivé právní citace, i když uznal, že je ideální pro napodobování vyprávěcích či hudebních stylů. V této souvislosti vydal varování, že budoucí podobná porušení budou závažnější, a zdůraznil, že právníci by neměli přenechávat svůj právní výzkum umělé inteligenci.
Význam ověřování informací lidmi
Tento případ zdůrazňuje, že je třeba, aby si odborníci, zejména v kritických oblastech, jako je právo, zachovali aktivní roli při ověřování informací generovaných nástroji umělé inteligence. Ačkoli AI může být mocným nástrojem pro zpracování velkého množství dat a generování poznatků, její schopnost rozlišovat mezi pravdivými a smyšlenými informacemi zůstává omezená. Proto je pro zajištění přesnosti a spolehlivosti výsledků nezbytný lidský dohled.
Kromě toho tento incident zdůrazňuje důležitost průběžného školení v používání nových technologií. Odborníci si musí být vědomi možností a omezení nástrojů, které používají, a instituce musí poskytnout zdroje a školení, aby zajistily, že jejich zaměstnanci budou moci tyto technologie používat efektivně a eticky.
Ačkoli umělá inteligence má potenciál změnit mnoho aspektů našeho každodenního života, její používání musí být doprovázeno jasným pochopením jejích omezení a závazkem k ověřování a odpovědnosti ze strany lidí.