Взаимодействие человека и искусственного интеллекта хорошо изучено с точки зрения доверия и товарищеских отношений. Однако роль привязанности и опыта в таких отношениях не совсем ясна. В рамках нового открытия исследователи из Университета Васэда разработали новую шкалу самоотчета и выделили концепции привязанности, тревоги и избегания по отношению к ИИ. Ожидается, что их работа послужит руководством для дальнейшего изучения взаимоотношений человека и ИИ и учета этических соображений при разработке ИИ.

Искусственный интеллект (ИИ) в наше время распространен повсеместно. В результате взаимодействия человека и ИИ становятся все более частыми и сложными, и ожидается, что эта тенденция вскоре усилится. Поэтому ученые приложили значительные усилия, чтобы лучше понять взаимоотношения человека и ИИ с точки зрения доверия и товарищества. Однако эти взаимодействия человека и машины, возможно, также могут быть поняты с точки зрения функций и переживаний, связанных с привязанностью, которые традиционно использовались для объяснения межличностных связей между людьми.

В своей инновационной работе, которая включает в себя два экспериментальных исследования и одно официальное исследование, группа исследователей из Университета Васэда, Япония, в том числе научный сотрудник Фан Ян и профессор Ацуси Ошио с факультета литературы, искусств и наук, использовали теорию привязанности для изучения взаимоотношений человека и искусственного интеллекта. Их результаты были недавно опубликованы в Интернете в журнале Current Psychology 9 мая 2025 года.

Г-н Ян объясняет мотивацию их исследования. «Как исследователей в области привязанности и социальной психологии, нас давно интересовало, как люди формируют эмоциональные связи. В последние годы генеративный ИИ, такой как ChatGPT, становится все более сильным и мудрым, предлагая не только информационную поддержку, но и чувство безопасности. Эти характеристики напоминают то, что теория привязанности описывает как основу для формирования безопасных отношений. Поскольку люди начинают взаимодействовать с ИИ не только для решения проблем или обучения, но и для эмоциональной поддержки и общения, их эмоциональная связь или ощущение безопасности с ИИ требуют внимания. Это исследование — наша попытка изучить такую возможность.»

Примечательно, что команда разработала новую шкалу самоотчета под названием «Шкала опыта в отношениях между человеком и ИИ», или EHARS, для измерения тенденций, связанных с привязанностью к ИИ. Они обнаружили, что некоторые люди ищут эмоциональной поддержки и руководства со стороны ИИ, аналогично тому, как они взаимодействуют с людьми. Почти 75% участников обратились к ИИ за советом, в то время как около 39% воспринимали ИИ как постоянное, надежное присутствие.

В этом исследовании были выделены два аспекта привязанности человека к ИИ: тревога и избегание. Индивид с высокой степенью тревожности по поводу привязанности к ИИ нуждается в эмоциональной поддержке и боится получить неадекватную реакцию от ИИ. Напротив, избегание привязанности к ИИ характеризуется дискомфортом от близости и, как следствие, предпочтением эмоциональной дистанции от ИИ.

Однако эти результаты не означают, что люди в настоящее время формируют подлинную эмоциональную привязанность к ИИ. Скорее, исследование демонстрирует, что психологические основы, используемые для человеческих взаимоотношений, могут также применяться к взаимодействию человека и ИИ. Представленные результаты могут послужить основой для этического проектирования ИИ-компаньонов и инструментов поддержки психического здоровья. Например, чат-боты с искусственным интеллектом, используемые для лечения одиночества или в терапевтических приложениях, могут быть адаптированы к эмоциональным потребностям различных пользователей, обеспечивая более чуткую реакцию для пользователей с высокой тревожностью по поводу привязанности или сохраняя уважительную дистанцию для пользователей, склонных избегать общения. Результаты также свидетельствуют о необходимости прозрачности в системах искусственного интеллекта, имитирующих эмоциональные отношения, таких как романтические приложения для искусственного интеллекта или роботы-воспитатели, чтобы предотвратить эмоциональную чрезмерную зависимость или манипулирование.

Кроме того, предлагаемые EHARS могут быть использованы разработчиками или психологами для оценки эмоционального отношения людей к ИИ и соответствующей корректировки стратегий взаимодействия с ИИ.

«По мере того, как ИИ все больше интегрируется в повседневную жизнь, люди могут начать искать не только информации, но и эмоциональной поддержки у систем ИИ. Наше исследование выявляет психологическую динамику, стоящую за этими взаимодействиями, и предлагает инструменты для оценки эмоциональных настроений по отношению к ИИ. Наконец, оно способствует лучшему пониманию того, как люди взаимодействуют с технологиями на социальном уровне, помогая определять политику и разрабатывать методы, которые ставят во главу угла психологическое благополучие», — заключает г-н Ян.

0 ответы

Ответить

Хотите присоединиться к обсуждению?
Не стесняйтесь вносить свой вклад!

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *