stop-war
Головна Article

DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF

convert

DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF

У нас можна знайти найвигідніші пропозиції щодо обміну криптовалют на електронні гроші, всі обмінники ретельно перевірені та мають бездоганну репутацію.

02.04.2024

DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF

DeepMind розробила ШІ-модель для перевірки згенерованої інформації — KursoFF

Компанія DeepMind представили нову розробку — SAFE. Це ШІ-модель, що перевіряє факти у відповідях LLM краще, ніж люди. Спільна проблема всіх великих мовних моделей — достовірність згенерованої інформації. Через те, що чат-боти піддаються галюцинаціям, це заважає їм відповідати на питання правильно. У звʼязку із цією проблемою, кожен результат потрібно перевіряти вручну. Це, своєю чергою, збільшує час вирішення завдання. Фахівці DeepMind розробили ШІ-бота, який автоматично вказує на неточності результатів. Назва цієї системи Search-Augmented Factuality Evaluator. Що в перекладі означає «Оцінювач фактів із розширеним пошуком». Науковці створили LLM, що спочатку розділяє ствердження або ж факти у відповіді ШІ-моделей. Після цього, система використовує Search від Google для пошуку сайтів, що верифікують твердження. Лише після вдалого пошуку робить порівняння із чат-ботами. Фахівці діляться, що використання АІ буде у 20 разів дешевше, у порівнянні з людською перевіркою. Враховуючи те, що обсяг згенерованої інформації ШІ-ботами швидко зростає, наявність дешевшого способу перевірки буде необхідним. Щоб навчити LLM перевіряти інформацію DeepMind використовували АІ для перевірки 16 тисяч фактів, які містяться у відповідях 13 основних мовних моделей, включно з Gemini, GPT, Claude і PaLM-2. Компанія також порівняла результати з висновками інших фактчекерів та дійшли до висновку, що SAFE надає в 72 % випадках ідентичний результат. Наявність розбіжностей у відповідях людей та SAFE — 76 %, у яких ШІ виявився правим. Професор Гері Маркус сказав, що не варто стверджувати напевне, що чат-бот справляється із поставленим завданням на «надлюдському рівні». Тому що немає точних даних про кваліфікацію людей, які брали участь в експерименті. Команда DeepMind поділилась на GitHub кодом SAFE.
Налаштування

Повідомити про несправність