
Видання Cointelegraph Magazine опублікувало детальний матеріал про небезпеку використання ChatGPT та інших великих мовних моделей як джерела юридичної консультації. Навіть якщо відповідь звучить переконливо, з цитатами статей і посиланнями на прецеденти — вона може бути повністю вигаданою.
ШІ бреше красиво: технічна суть проблеми
Великі мовні моделі (LLM), такі як ChatGPT, не розуміють правду. Вони лише прогнозують наступне слово на основі статистики величезних масивів тексту. Якщо в тренувальних даних багато юридичних текстів, модель може «вигадати» закон, якого ніколи не існувало, і подати його з такою впевненістю, що людина повірить.
Приклади галюцинацій:
- ChatGPT часто вигадує неіснуючі статті Кримінального кодексу України
- Посилається на судові рішення, яких не було в реальності
- Дає поради з податкового законодавства, які суперечать актуальним нормам ДПС
Технічна причина проста: модель не має доступу до актуальної бази законів, не може перевірити факти і не несе жодної відповідальності за помилки.
Реальні історії, коли люди поплатилися за поради ШІ
Останні роки зафіксовано десятки випадків, коли сліпе слідування ChatGPT призводило до серйозних наслідків:
- У США чоловік подав позов проти компанії, спираючись на «закон», вигаданий ШІ — суд відхилив позов, а адвокатські витрати склали $15 000
- Інвестор у криптовалюту вивів кошти з гаманця за інструкцією ChatGPT — втратив доступ до $120 000 через неправильну пораду щодо seed-фрази
- Підприємець в Україні зареєстрував ФОП за «оптимальною» схемою від ШІ — отримав штраф 170 000 грн від ДПС за порушення податкового законодавства
Це лише вершина айсберга. Багато випадків не потрапляють у ЗМІ, але юристи вже називають це «ChatGPT-шахрайством» — коли люди втрачають гроші через надмірну довіру до ШІ.
П’ять головних причин ніколи не довіряти ШІ в юридичних питаннях
- Галлюцинації — модель вигадує закони, статті та прецеденти
- Відсутність актуальності — база знань закінчується 2023–2024 роками, нові закони не враховуються
- Неможливість врахувати локальне законодавство — українські норми часто ігноруються або спотворюються
- Відсутність відповідальності — ШІ не несе наслідків, на відміну від ліцензованого адвоката
- Професійна етика — лише юрист може нести юридичну відповідальність за консультацію
ШІ — помічник, а не адвокат: фінальні висновки
ChatGPT та подібні моделі — потужні інструменти для пошуку інформації, формулювання текстів, пояснення термінів чи швидкого аналізу документів. Але будь-яку юридичну дію (податки, контракти, криптооперації, спадщина, штрафи) потрібно перевіряти в реального юриста.
Особливо це стосується криптовалютного фронтиру, де «код як закон» часто стикається з реальним правом. Детальніше про філософію свободи та відповідальності в криптосвіті читайте в статті «Чи повинен код стати законом? Філософія свободи в криптовалютному фронтирі».
Пам’ятайте: якщо ви питаєте ШІ про закон — ви ризикуєте не лише грошима, а й свободою. Краще один раз заплатити адвокату, ніж потім пояснювати податковій чи суду, чому ви повірили чат-боту.
