![stop-war](https://kursoff.biz/images/stopWar.png)
![stop-war](https://kursoff.biz/images/stopWar.png)
DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF
У нас можна знайти найвигідніші пропозиції щодо обміну криптовалют на електронні гроші, всі обмінники ретельно перевірені та мають бездоганну репутацію.
02.04.2024
![DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF](https://kursoff.biz/public/uploads/images/f0116f2eddea49b4d8f3c923f0a80ee9.jpeg)
DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF
Компанія DeepMind представили нову розробку — SAFE. Це ШІ-модель, що перевіряє факти у відповідях LLM краще, ніж люди.
Спільна проблема всіх великих мовних моделей — достовірність згенерованої інформації. Через те, що чат-боти піддаються галюцинаціям, це заважає їм відповідати на питання правильно. У звʼязку із цією проблемою, кожен результат потрібно перевіряти вручну. Це, своєю чергою, збільшує час вирішення завдання.
Фахівці DeepMind розробили ШІ-бота, який автоматично вказує на неточності результатів. Назва цієї системи Search-Augmented Factuality Evaluator. Що в перекладі означає «Оцінювач фактів із розширеним пошуком».
Науковці створили LLM, що спочатку розділяє ствердження або ж факти у відповіді ШІ-моделей. Після цього, система використовує Search від Google для пошуку сайтів, що верифікують твердження. Лише після вдалого пошуку робить порівняння із чат-ботами.
Фахівці діляться, що використання АІ буде у 20 разів дешевше, у порівнянні з людською перевіркою. Враховуючи те, що обсяг згенерованої інформації ШІ-ботами швидко зростає, наявність дешевшого способу перевірки буде необхідним.
Щоб навчити LLM перевіряти інформацію DeepMind використовували АІ для перевірки 16 тисяч фактів, які містяться у відповідях 13 основних мовних моделей, включно з Gemini, GPT, Claude і PaLM-2. Компанія також порівняла результати з висновками інших фактчекерів та дійшли до висновку, що SAFE надає в 72 % випадках ідентичний результат.
Наявність розбіжностей у відповідях людей та SAFE — 76 %, у яких ШІ виявився правим.
Професор Гері Маркус сказав, що не варто стверджувати напевне, що чат-бот справляється із поставленим завданням на «надлюдському рівні». Тому що немає точних даних про кваліфікацію людей, які брали участь в експерименті.
Команда DeepMind поділилась на GitHub кодом SAFE.