Измерение прогресса ИИ обычно означало проверку научных знаний или логических рассуждений, но хотя основные бенчмарки по-прежнему сосредоточены на навыках левополушарной логики, в компаниях ИИ наблюдается тихий толчок к тому, чтобы сделать модели более эмоционально интеллектуальными. Поскольку базовые модели по конкурируют мягким показателям, таким как предпочтения пользователей и «чувство ловкости», хорошее владение человеческими эмоциями может быть важнее, чем жесткие аналитические навыки.
Один из признаков этого внимания появился в пятницу, когда известная группа разработчиков программного обеспечения с открытым исходным кодом Лайон выпустила набор инструментов с открытым исходным кодом, полностью ориентированных на эмоциональный интеллект. Эмоне Названный, релиз фокусируется на интерпретации эмоций из записей голоса или фотографий лица, фокус, который отражает то, как создатели рассматривают эмоциональный интеллект как центральную задачу для следующего поколения моделей.
«Способность точно оценивать эмоции — это важный первый шаг», — написала группа в своем заявлении. «Следующий рубеж — дать возможность системам ИИ рассуждать об этих эмоциях в контексте».
Для основателя Лайон Кристофа Шумана этот релиз не столько о смещении фокуса отрасли на эмоциональный интеллект, сколько о помощи независимым разработчикам в том, чтобы идти в ногу с изменениями, которые уже произошли. «Эта технология действительно нужна для корпоративных разработчиков», — сообщает TechCrunch. «Мы хотим сделать ее демократичной».
Сдвиг не ограничивается разработчиками открытого исходного кода; он также проявляется в публичных бенчмарках, таких как эквалайзер-скамейка, который направлен на проверку способности моделей ИИ понимать сложные эмоции и социальную динамику. Разработчик бенчмарка Пейч Сэм говорит, что модели OpenAI достигли значительного прогресса за последние шесть месяцев, а Близнецы 2.5 профи от компании Google демонстрирует признаки пост-обучения с особым акцентом на эмоциональном интеллекте.
«Лаборатории, конкурирующие за места в рейтинге чат-ботов, могут отчасти способствовать этому, поскольку эмоциональный интеллект, вероятно, является важным фактором в том, как люди голосуют в таблицах лидеров предпочтений», — говорит Пейч, имея в виду платформу сравнения моделей ИИ, которая недавно отделилась как хорошо финансируемый стартап.
Новые возможности эмоционального интеллекта моделей также проявились в академических исследованиях. Психологи В мае из Бернского университета обнаружили, что модели от OpenAI, Майкрософт, Гугл, антропного и DeepSeek превзошли людей в психометрических тестах на эмоциональный интеллект. Если обычно люди правильно отвечают на 56 процентов вопросов, то модели в среднем дали более 80 процентов.
«Эти результаты пополняют растущую базу доказательств того, что специалисты магистр права, такие как ChatGPT, обладают навыками — по крайней мере, наравне со многими людьми или даже превосходят их — в решении социально-эмоциональных задач, которые традиционно считаются доступными только людям», — пишут авторы.
Это настоящий поворот от традиционных навыков ИИ, которые были сосредоточены на логическом мышлении и поиске информации. Но для Шумана этот вид эмоциональной подкованности так же преобразующий, как и аналитический интеллект. «Представьте себе целый мир, полный голосовых помощников, таких как Джарвис и Саманта», — говорит он, имея в виду цифровых помощников из <них>Железный Человек</ем> и <ЭМ>ее.</Эм> «Не было бы жаль, если бы они не были эмоционально разумными?»
В долгосрочной перспективе Шуман представляет себе помощников на основе искусственного интеллекта, которые эмоционально более будут разумны, чем люди, и которые будут использовать это понимание, чтобы помочь людям жить более эмоционально здоровой жизнью. Эти модели «поднимут вам настроение, если вам грустно и вам нужно с кем-то поговорить, но также защитят вас, как ваш собственный местный ангел-хранитель, который также является сертифицированным терапевтом». По мнению Шумана, наличие виртуального помощника с высоким эквалайзером «дает мне сверхспособность эмоционального интеллекта контролировать [свое психическое здоровье] так же, как я бы контролировал свой уровень глюкозы или вес».
Этот уровень эмоциональной связи сопряжен с реальными проблемами безопасности. Нездоровая эмоциональная привязанность к моделям ИИ стала обычной историей в СМИ, иногда заканчивающейся трагедией. Первый отчет New York Times заинтересовал многих пользователей, которые заинтересовались в том, чтобы внести свой вклад в обсуждение вопросов с моделями и, Поддерживаемый сильной аудиторией моделей, он ожидает пользователей. Один критик описал эту динамику как «охоту на одиноких и уязвимых за ежемесячную плату».
Если модели станут лучше ориентироваться в человеческих эмоциях, эти манипуляции могут стать более эффективными, но большая часть проблемы сводится к фундаментальным предубеждениям обучения моделей. «Новое использование обучения с подкреплением может привести к повышению осведомленности руководства», — говорит Пэйч, указывая на то, что это может привести к повышению осведомленности руководства. первые проблемы с подключением к OpenAI GPT-4o. «Если мы не будем осторожны с тем, как мы вознаграждаем эти модели во время обучения, мы можем ожидать более сложного манипулятивного поведения от эмоционально интеллектуальных моделей».
Но он также рассматривает эмоциональный интеллект как способ решения этих проблем. «Я думаю, что эмоциональный интеллект действует как естественное противодействие вредоносному манипулятивному поведению такого рода», — говорит Пейч. Более эмоционально интеллектуальная модель заметит, когда разговор сойдет с рельсов, но вопрос о том, когда модель даст отпор, — это вопрос баланса, который разработчикам придется тщательно соблюдать. «Я думаю, что улучшение ЭИ приближает нас к здоровому балансу».
По крайней мере, для Шумана это не причина замедлять прогресс в направлении более умных моделей. «Наша философия в ЛАЙОНЕ заключается в том, чтобы расширять возможности людей, предоставляя им больше возможностей для решения проблем», — говорит Шуман. «Сказать, что некоторые люди могут стать зависимыми от эмоций, и поэтому мы не расширяем возможности сообщества, было бы очень плохо».