Юрист використав ChatGPT для роботи, і через це сам постане перед судом — Finance.ua
0 800 307 555
0 800 307 555

Юрист використав ChatGPT для роботи, і через це сам постане перед судом

Технології&Авто
3756
Юрист використав ChatGPT для роботи, і через це сам постане перед судом
Юрист використав ChatGPT для роботи, і через це сам постане перед судом
Адвокат із Нью-Йорка Стівен Шварц використовував ChatGPT для підготовки документів у справі. В результаті він надав суду посилання на вигадані нейромережею подібні випадки судових процесів. Як повідомляє The New York Times, тепер суд розглядає «потенційні заходи покарання» для самого адвоката.

В чому суть справи?

  • Судовий процес був досить простим: Роберто Мата подав до суду на авіакомпанію Avianca, заявивши, що він отримав травму, коли металевий візок для сервірування вдарив його коліно під час рейсу до міжнародного аеропорту Кеннеді в Нью-Йорку.
  • Представники авіакомпанії попросили федерального суддю відхилити справу, проте адвокати пана Мата категорично заперечували проти відхилення і надали 10-сторінковий запис, у якому цитувалися понад півдюжини подібних судових рішень.
  • Проте ніхто: ні юристи авіакомпанії, ні навіть сам суддя — не зміг знайти рішення чи цитати, наведені в узагальнені в записці. І все через те, що їх повністю вигадав ChatGPT, яким користувався адвокат Стівен Шварц.
  • Шварц, який займався адвокатською практикою в Нью-Йорку протягом 30 років, сказав судді, що він не мав наміру обдурити суд або авіакомпанію. Він заявив, що ніколи не використовував ChatGPT, і «тому не знав про можливість того, що його відповіді можуть бути неправдивими».
  • Суддя врешті решт зазначив, що йому було представлено юридичне подання, повне «фальшивих судових рішень, з фальшивими цитатами та фальшивими внутрішніми цитатами». Для обговорення можливих санкцій проти адвоката було призначене додаткове слухання на 8 червня.

Чому це цікаво?

OpenAI попереджає, що ChatGPT може надавати неточну інформацію — нейромережа все вигадувала фальшиві газетні статті, невірні твердження про те, що професор права був залучений у скандал із сексуальними домаганнями, а мер Австралії був замішаний у скандалі з хабарництвом.
Крім того, як окремі люди, так і великі корпорації стурбовані тим, як використовуються дані. Наприклад Samsung заборонила своїм співробітникам використовувати генеративні інструменти штучного інтелекту через побоювання щодо того, як дані зберігаються на зовнішніх серверах, і через ризик того, що секрети компанії в решті решт можуть бути розкриті іншим користувачам.
Проте, як бачимо, чимало людей, далеких від розуміння всіх ризиків використання нейромереж в роботі, продовжують покладатися на штучний інтелект. І в окремих випадках це може більше нашкодити, ніж допомогти.
За матеріалами:
ain.ua
Якщо Ви помітили помилку, виділіть необхідний текст і натисніть Ctrl+Enter , щоб повідомити про це.

Поділитися новиною

Підпишіться на нас