
У світі штучного інтелекту зараз активно говорять про здатність великих мовних моделей (Large Language Models, LLM) не лише генерувати текст, а й розпізнавати найтонші відтінки людської мови — емоції, сарказм, політичні погляди та інші приховані підтексти. Останні дослідження в цьому напрямку показують, що сучасні моделі, зокрема GPT-4, Gemini, Llama-3.1-70B і Mixtral 8×7B, демонструють рівень аналізу, що порівнюється із людським.
Читайте також: ChatGPT вміє шукати локації по фото і це викликає занепокоєння
Що показало дослідження про аналіз текстів ШІ?
Вчені порівняли результати роботи LLM з оцінками 33 добровольців, які аналізували близько 100 текстових фрагментів, щоб виявити тонкощі настроїв, політичних переконань, позитивних чи негативних забарвлень і сарказму.
- GPT-4 виявився найпослідовнішим у виявленні політичних поглядів, навіть випереджаючи людей.
- Штучний інтелект впевнено визначав емоційне забарвлення, розрізняючи ступені роздратування чи обурення автора тексту.
- Найскладнішим завданням для моделей виявилося розпізнавання сарказму — однак і люди з цим не справлялися краще.
Чому це важливо?
Розуміння емоційного стану людини, особливо в текстах, може стати потужним інструментом у різних сферах:
- Психічне здоров’я: ШІ може допомогти виявляти критичні сигнали в повідомленнях та публікаціях, які вказують на стрес, депресію чи інші проблеми.
- Обслуговування клієнтів: Аналіз настрою клієнтів у чатах чи відгуках дозволяє компаніям швидко реагувати на незадоволення або похвалу.
- Безпека: Виявлення загрозливих, агресивних чи маніпулятивних висловлювань у текстах для запобігання кризам.
- Соціологія та дослідження: Значне прискорення аналізу великих масивів текстової інформації, що раніше займало місяці. Особливо це актуально під час виборів, кризових ситуацій чи соціальних протестів.
Вплив на журналістику і перевірку фактів
Журналісти, дослідники та фахівці з фактчекінгу отримують нові можливості:
- Автоматичний скринінг публікацій на політичну упередженість або емоційне забарвлення.
- Відзначення потенційно маніпулятивних або саркастичних текстів, які складно аналізувати вручну.
- Швидкий доступ до аналітики без витрат часу на ручний перегляд великих обсягів інформації.
Проблеми і перспективи
Попри високі результати, проблеми зі справедливістю, прозорістю та неупередженістю моделей ШІ залишаються актуальними. Важливо, щоб подальші дослідження включали ретельний аналіз стабільності та надійності відповідей LLM.
Якщо моделі продовжать удосконалюватися, вони можуть стати незамінним інструментом у науці, бізнесі та повсякденному житті, допомагаючи людині краще розуміти й інтерпретувати інформацію у світі, де обсяги текстів зростають щодня.
Дослідження було опубліковане у журналі Scientific Reports і вже привернуло увагу технологічної спільноти та соціологів, що прагнуть більш глибокого розуміння людської комунікації за допомогою штучного інтелекту.