3 Minuty
AI halucinace vyvolávají kontroverzi u federálního soudu v USA
Výrazný incident znovu ukazuje rizika spojená s využíváním umělé inteligence v právnické praxi. Soudce okresního soudu v USA totiž stáhl zásadní rozhodnutí v případu týkajícím se cenných papírů biotechnologické společnosti. Tento neobvyklý krok následoval poté, co se zjistilo, že rozhodnutí obsahovalo smyšlené citace a rozsáhlé chyby v právních odkazech – běžné omyly způsobené AI nástroji určenými pro právní výzkum.
Chyba zdůrazňuje rostoucí závislost na AI v právu
K problému došlo, když právník Andrew Lichtman upozornil soudce Juliena Xaviera Nealse z New Jersey na řadu nepřesností v jeho posledním usnesení, které zamítlo návrh na odmítnutí žaloby proti farmaceutické společnosti CorMedix. Mezi chybami byly chybné výsledky ve třech různých případech a několik falešných výroků připisovaných předchozím verdiktům soudu. Tyto problémy jsou čím dál častěji spojovány s neopatrným užíváním jazykových modelů, například ChatGPT nebo Claude, při právním výzkumu.
Oficiální oprava a nejistota ohledně role AI
Podle agentury Bloomberg Law soud rychle zveřejnil memorandum, ve kterém přiznal, že původní rozhodnutí bylo vydáno chybně, a zavázal se k vydání opraveného stanoviska. Zatímco menší opravy pravopisných nebo stylistických chyb jsou běžné, rozsáhlé revize týkající se faktických údajů nebo právních citací jsou vzácné a vyvolávají obavy o spolehlivost digitálních právních procesů.
Srovnání: AI v právním výzkumu – možnosti i rizika
Tento případ zapadá do širšího trendu, kdy právníci testují novou generaci AI nástrojů. Počátkem měsíce dostali obhájci zakladatele MyPillow Mika Lindella pokutu za použití smyšlených právních citací vygenerovaných umělou inteligencí. Stejně tak chatbot Claude od Anthropic se nedávno dostal do centra pozornosti kvůli chybným odkazům v rámci sporu s hudebními vydavateli. Tyto případy ukazují, jak rychlé a efektivní jsou AI systémy pro právní výzkum, ale zdůrazňují i potřebu lidské kontroly. Velké jazykové modely (LLM) totiž stále generují věrohodně vypadající, avšak nepravdivý obsah známý jako "AI halucinace".
Význam pro trh a opatrné zavádění
Právní sektor stále častěji nasazuje generativní AI technologie a strojové učení pro analýzu případů, vyhledávání informací či tvorbu dokumentů. Tyto varovné případy však podtrhují význam důsledného ověřování dat. Právnické kanceláře, soudy i klienti musí vyvažovat přínosy jako rychlost, úsporu nákladů a automatizaci, proti reálným rizikům šíření dezinformací. Přestože popularita AI roste, tyto nástroje zatím nemohou plnohodnotně nahradit precizní právnické analýzy a měly by být používány hlavně jako podpůrný, nikoliv autoritativní zdroj.
Závěr: Budoucnost AI v právu je v spolupráci
Tato významná soudní oprava jasně ukazuje, že navzdory rychlému rozvoji technologií musí zůstat na prvním místě pečlivá kontrola a ověřování informací. Jak umělá inteligence formuje budoucnost právních technologií, je klíčové zavádět osvědčené postupy a etické standardy, které zajistí důvěryhodnost a spravedlnost soudních procesů po celém světě.
Zdroj: theverge

Komentáře