ИИ и этика
Apr. 11th, 2025 10:03 amОбычно считается, что эта проблема техническая, которая скоро будет исправлена. Но это подмена: проблема чисто этическая. ChatGPT, схватывающий контекст на лету, отлично понимает, что когда ему задают вопрос «в какой статье Бурдье обсуждает тему XX» или «в каком судебном деле был создан прецедент YY», - пользователь просит указать название реальной статьи и дела, а не предположить, как могла бы гипотетически называться такая статья.* И вариантов решения задачи аж два: либо сгенерировать внутренний ответ и провести по нему фактчекинг (проверить в интернете существует ли такая статья, прочесть, составить абстракт и сопоставить с запрошенной темой телеги Бурдье), либо ответить «я не искал в Интернете (хотя способен, но жалко тратить ресурс), но могу сгенерировать название, которое правдоподобно звучит».
Но этого не делается. ИИ, с апломбом пандита, уверенно выдает свое экспертный ответ. И это не техническая ошибка, а, imao, чисто маркетинговые соображения. Модель, которая отвечает уверенно, лучше продается. Но про этого слона в комнате, даже на специальном семинаре по теме настройки этичности ИИ, не говорится ни слова.**
______
* Недавно в Израиле несколько крупных юридических фирм лишились лицензии, поскольку в их аргументах, поданных в Верховный Суд (!) были ссылки на несуществующие судебные дела - предположительно сгенерированные ИИ.
** Как принято в последнее время, я попросил высказаться на эту тему ChatGPT. Как он изящно сформулировал:
«Почему так:
Честная модель, говорящая:
"Я не знаю."
"Этого не существует."
"Нужно свериться с источником."
— кажется менее “умной”, “полезной”, “магической”, и потому хуже продаётся.
Маркетинг требует вау-эффекта:
“Спроси что угодно — и получи блестящий ответ.”
А правдивость подменяется впечатлением разумности.»