Как это работает?
Исследователи из Пенсильванского университета показали: недоверие человека к людям предсказывает, что он будет больше доверять способности искусственного интеллекта модерировать онлайн-контент. По словам исследователей, результаты работы полезны как для разработчиков, так и для пользователей инструментов ИИ в социальных сетях, пишет «Хайтек».
Исследователи набрали 676 участников из США. Им сказали, что они помогают тестировать систему модерации контента, которая находится в разработке. Организаторы раздали определения разжигания ненависти и суицидальных мыслей, после чего каждому участнику показали четыре публикации в социальных сетях. Часть постов была помечена как соответствующая этим определениям. Участникам также сообщили, было ли решение пометить пост принято ИИ, человеком или их комбинацией.
Оказалось, что индивидуальные различия, такие как недоверие к другим и энергопотребление, предсказывают, будут ли пользователи ссылаться на положительные или отрицательные характеристики машин при столкновении с системой на основе ИИ для модерации контента, что в конечном итоге повлияет на их доверие к системе.
При этом «опытные пользователи», которые активно используют информационные технологии, меньше доверяли модераторам ИИ, потому что считали, что машинам не хватает способности обнаруживать нюансы человеческого языка.
Исследователи полагают, что персонализация интерфейсов на основе индивидуальных различий может положительно повлиять на пользовательский опыт.