ai-as-a-new-moral-compass

OpenAI инвестирует в исследования алгоритмов для понимания морали

AI

25 ноября 2024 г.

Компания OpenAI выделила грант исследователям Университета Дьюка на изучение алгоритмов, способных предсказывать моральные суждения людей.

Цель проекта — научить ИИ решать этические конфликты

Проект, известный как «Исследование ИИ и морали», продлится до 2025 года. Его руководитель, профессор Уолтер Синнотт–Армстронг, отказался комментировать промежуточные результаты. Тем не менее ранее он совместно с коллегой Яной Борг опубликовал книгу о потенциале искусственного интеллекта как «морального GPS», способного помогать людям принимать этические решения.

Исследователи уже имеют опыт разработки алгоритмов, которые помогают определять, кому лучше передать донорские органы. Они также изучали ситуации, в которых люди готовы доверить ИИ принятие сложных решений.

OpenAI ставит перед собой цель обучить алгоритмы «предсказывать моральные суждения людей» в сложных медицинских, юридических и бизнес-конфликтах.

Компания Сэма Альтмана также работает над запуском ИИ–агента под кодовым названием «Оператор», который может стать следующим прорывом в сфере искусственного интеллекта.