AI-genererade fel i rättsdokument leder till juridiska problem för advokater

Photo by Saúl Bucio on Unsplash

AI-genererade fel i rättsdokument leder till juridiska problem för advokater

Lästid: 2 min

En rapport som delades av Reuters igår avslöjar att AI:s hallucinationer—fel och påhittad information skapad av generativa AI-modeller—orsakar juridiska problem i domstolar i USA.

Har bråttom? Här är de snabba fakta!

  • Morgan & Morgan skickade ett e-postmeddelande till 1,000 advokater där de varnade för riskerna med AI.
  • Det nyligen uppmärksammade fallet där Walmarts advokater erkände att de använder AI i sina fall har orsakat stor uppståndelse inom juridikvärlden.
  • Användningen av chatbot-hallucinationer i rättsliga uttalanden har blivit ett återkommande problem under de senaste åren.

Denna månad skickade advokatbyrån Morgan & Morgan ett e-postmeddelande till över 1 000 advokater där de varnade för riskerna med att använda chattrobotar och falska fall genererade av artificiell intelligens.

För några dagar sedan erkände två advokater i Wyoming att de inkluderat falska fall genererade av AI i en rättslig inlaga inför en stämning mot Walmart, och en federal domare hotade att bestraffa dem.

I december anklagades Stanfordprofessorn och desinformations-experten Jeff Hancock för att ha använt AI för att fabrikera rättsliga deklarationer som del av sitt uttalande i försvar av delstatens lag 2023 om kriminalisering av användning av deepfakes för att påverka val.

Flera fall som dessa, under de senaste åren, har skapat juridiska friktioner och ställt till problem för domare och parter. Morgan & Morgan och Walmart avböjde att kommentera detta ämne.

Generativ AI har hjälpt till att minska forskningstiden för advokater, men dess hallucinationer kan medföra betydande kostnader. Förra året avslöjade en undersökning från Thomson Reuters att 63% av advokaterna använde AI för arbete och 12% gjorde det regelbundet.

Förra året påminde American Bar Association sina 400 000 medlemmar om advokatetiska regler, vilka inkluderar att advokater står bakom all information i sina domstolsinlämningar, och noterade att detta inkluderade AI-genererad information, även om det var oavsiktligt – som i Hancock’s fall.

”När advokater ertappas med att använda ChatGPT eller något annat generativt AI-verktyg för att skapa citat utan att kontrollera dem, så är det inkompetens, helt enkelt,” sade Andrew Perlman, dekan på Suffolk Universitys juridiska fakultet till Reuters.

För några dagar sedan delade även BBC en rapport som varnar för falska citat genererade av AI och problemen med AI-verktyg inom journalistiken.

Var den här artikeln hjälpsam?
Betygsätt den!
Riktigt usel Halvdålig Helt ok Riktigt bra! Älskade den!

Vad kul att du gillar vårt arbete!

Skulle du, som vår uppskattade läsare, vilja uppmärksamma oss på Trustpilot? Det går snabbt och betyder jättemycket för oss. Tack för att du är så fantastisk!

Betygsätt oss på Trustpilot
0 Betygsatt av 0 användare
Titel
Kommentera
Tack för din feedback
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Lämna en kommentar

Loader
Loader Visa mer...