„Le spunem clienților noștri să procedeze cu prudență”, a declarat Alexandria
Avertismentele privind confidențialitatea datelor corporative au devenit tot mai insistente după ce un judecător federal din New York a stabilit recent că un fost director de companie, acuzat de fraudă cu valori mobiliare, nu poate proteja conversațiile purtate cu o inteligență artificială de procurori. Decizia a determinat avocații să le recomande clienților să fie extrem de precauți în discuțiile cu chatbot-uri precum ChatGPT, dezvoltat de OpenAI, sau Claude, de la Anthropic, deoarece aceste conversații ar putea fi solicitate în instanță, fie în procese penale, fie în litigii civile.
Știri de ultimă oră
CSM amână avizul pentru numirea procurorului Lionte la
UE Extinde Sprijinul pentru Armenia prin Nouă Misiune Civilă
Tehnologia, nou fundament al securității naționale
Vreme instabilă de 1 Mai: Frig și ploi în cea mai mare„Le spunem clienților noștri să procedeze cu prudență”, a declarat Alexandria Gutiérrez Swette, avocată la Kobre & Kim din New York, pentru Reuters. În mod normal, discuțiile dintre avocați și clienții lor sunt confidențiale în conformitate cu legislația americană. Însă, chatbot-urile AI nu sunt avocați, iar juriștii îi sfătuiesc pe clienți să ia măsuri suplimentare pentru a menține confidențialitatea comunicărilor cu aceste instrumente. Peste zece firme de avocatură importante din Statele Unite au emis avertismente clienților, atât prin emailuri, cât și prin recomandări publicate pe site-urile lor, cu scopul de a reduce riscul ca discuțiile cu AI să ajungă în atenția instanței. Avertismente similare sunt incluse și în contractele de colaborare încheiate de unele firme cu clienții lor.
Spre exemplu, Sher Tremonte din New York a specificat într-un contract recent că partajarea sfaturilor sau a comunicărilor cu un avocat prin intermediul unui chatbot ar putea anula protecția juridică oferită de relația avocat-client – o protecție care, în majoritatea țărilor, garantează confidențialitatea comunicărilor dintre avocat și client, cu excepții limitate.
Semnalul de alarmă a fost declanșat de cazul lui Bradley Heppner, fost președinte al GWG Holdings, o companie de servicii financiare aflată în faliment, și fondator al firmei de active alternative Beneficent. Heppner a fost inculpat în noiembrie anul trecut de procurorii federali pentru fraudă cu valori mobiliare și fraudă electronică, dar a pledat nevinovat. Acesta a folosit chatbot-ul Claude al companiei Anthropic pentru a pregăti rapoarte legate de cazul său, pe care le-a prezentat avocaților săi. Aceștia au argumentat că schimburile dintre clientul lor și instrumentul AI ar trebui excluse din dosar, deoarece conțineau informații confidențiale provenite de la avocați.
Procurorii au replicat că au dreptul să solicite materialele generate de Heppner cu ajutorul Claude, deoarece avocații apărării nu au fost implicați direct în crearea lor și pentru că secretul profesional avocat-client nu se aplică chatbot-urilor.
Semnalul de alarmă a fost declanșat de cazul lui Bradley Heppner, fost
Dezvăluirea voluntară a informațiilor primite de la un avocat către o terță parte poate compromite protecția juridică.
În februarie, judecătorul Jed Rakoff a decis că Heppner trebuie să predea 31 de documente generate de chatbot-ul Claude al Anthropic. „Nu există o relație avocat-client, și nici nu ar putea exista între un utilizator AI și o platformă precum Claude”, a motivat Rakoff. Reuters notează că instanțele din SUA se confruntă cu o utilizare tot mai frecventă a inteligenței artificiale de către avocați și persoane care se reprezintă singure în procese, ceea ce a dus, în unele cazuri, la depunerea de documente juridice fără nicio bază legală. Cu alte cuvinte, chatbot-urile au „inventat” pur și simplu cazuri inexistente pentru a susține argumentele utilizatorilor. Decizia lui Rakoff reprezintă un prim test important în era chatbot-urilor AI pentru protecțiile juridice fundamentale care guvernează comunicările avocat-client și materialele pregătite pentru litigii.
Însă, în aceeași zi în care Rakoff a pronunțat decizia sa, un alt judecător federal din Michigan a stabilit că o femeie care se reprezenta singură într-un proces intentat fostului său angajator nu trebuie să predea conversațiile sale cu ChatGPT despre pretențiile din cauză. Judecătorul din Michigan a considerat că discuțiile femeii cu AI fac parte din propriul ei „material de lucru” pentru caz și nu pot fi considerate conversații cu o persoană pe care angajatorul ar putea încerca să o folosească în apărarea sa. „ChatGPT și alte programe de inteligență artificială generativă sunt instrumente, nu persoane”, a scris judecătorul în motivarea sa.
Alte știri: