Видання Cointelegraph Magazine опублікувало детальний матеріал про небезпеку використання ChatGPT та інших великих мовних моделей як джерела юридичної консультації. Навіть якщо відповідь звучить переконливо, з цитатами статей і посиланнями на прецеденти — вона може бути повністю вигаданою.

ШІ бреше красиво: технічна суть проблеми

Великі мовні моделі (LLM), такі як ChatGPT, не розуміють правду. Вони лише прогнозують наступне слово на основі статистики величезних масивів тексту. Якщо в тренувальних даних багато юридичних текстів, модель може «вигадати» закон, якого ніколи не існувало, і подати його з такою впевненістю, що людина повірить.

Приклади галюцинацій:

  • ChatGPT часто вигадує неіснуючі статті Кримінального кодексу України
  • Посилається на судові рішення, яких не було в реальності
  • Дає поради з податкового законодавства, які суперечать актуальним нормам ДПС

Технічна причина проста: модель не має доступу до актуальної бази законів, не може перевірити факти і не несе жодної відповідальності за помилки.

Реальні історії, коли люди поплатилися за поради ШІ

Останні роки зафіксовано десятки випадків, коли сліпе слідування ChatGPT призводило до серйозних наслідків:

  • У США чоловік подав позов проти компанії, спираючись на «закон», вигаданий ШІ — суд відхилив позов, а адвокатські витрати склали $15 000
  • Інвестор у криптовалюту вивів кошти з гаманця за інструкцією ChatGPT — втратив доступ до $120 000 через неправильну пораду щодо seed-фрази
  • Підприємець в Україні зареєстрував ФОП за «оптимальною» схемою від ШІ — отримав штраф 170 000 грн від ДПС за порушення податкового законодавства

Це лише вершина айсберга. Багато випадків не потрапляють у ЗМІ, але юристи вже називають це «ChatGPT-шахрайством» — коли люди втрачають гроші через надмірну довіру до ШІ.

П’ять головних причин ніколи не довіряти ШІ в юридичних питаннях

  1. Галлюцинації — модель вигадує закони, статті та прецеденти
  2. Відсутність актуальності — база знань закінчується 2023–2024 роками, нові закони не враховуються
  3. Неможливість врахувати локальне законодавство — українські норми часто ігноруються або спотворюються
  4. Відсутність відповідальності — ШІ не несе наслідків, на відміну від ліцензованого адвоката
  5. Професійна етика — лише юрист може нести юридичну відповідальність за консультацію

ШІ — помічник, а не адвокат: фінальні висновки

ChatGPT та подібні моделі — потужні інструменти для пошуку інформації, формулювання текстів, пояснення термінів чи швидкого аналізу документів. Але будь-яку юридичну дію (податки, контракти, криптооперації, спадщина, штрафи) потрібно перевіряти в реального юриста.

Особливо це стосується криптовалютного фронтиру, де «код як закон» часто стикається з реальним правом. Детальніше про філософію свободи та відповідальності в криптосвіті читайте в статті «Чи повинен код стати законом? Філософія свободи в криптовалютному фронтирі».

Пам’ятайте: якщо ви питаєте ШІ про закон — ви ризикуєте не лише грошима, а й свободою. Краще один раз заплатити адвокату, ніж потім пояснювати податковій чи суду, чому ви повірили чат-боту.

Від Олена Василенко

Головна редакторка і автор новин та статей на проекті "Crypto Challenge"