Технология "дипфейк" может облегчить искажение реальности
По мере развития технологий искусственного интеллекта развиваются и инструменты для клонирования голоса и
создания фальшивого контента, делая их все более доступными, недорогими и эффективными.
Эти технологии вызывают опасения по поводу возможности их использования для распространения дезинформации,
поскольку результаты становятся все более персонализированными и убедительными.
В результате может увеличиться число сложных фишинговых схем, использующих созданные ИИ изображения, видео
и аудиосообщения.
Возникновение неадекватной привязанности к ИИ
Еще один риск, связанный с системами ИИ, - создание ложного чувства важности и надежности, то есть люди
могут переоценивать его способности и занижать свои собственные, что приведёт к чрезмерной зависимости от
технологии.
Кроме того, учёные опасаются, что пользователи могут запутаться в системах искусственного интеллекта из-за
того, что те используют человеческий язык.
Это может подтолкнуть людей к тому, чтобы приписать ИИ человеческие качества, что приведет к эмоциональной
зависимости и росту доверия к его возможностям, сделав их уязвимее перед слабостями ИИ в "сложных,
рискованных ситуациях, для которых ИИ приспособлен лишь частично".
ИИ может лишить людей свободы воли
На личном уровне люди могут столкнуться с проблемой ограничения свободы воли, когда ИИ начнет
контролировать решения, касающиеся их жизни.
На уровне общества широкое внедрение ИИ для выполнения человеческих задач может привести к значительному
сокращению рабочих мест и "растущему чувству беспомощности среди населения".
ИИ может преследовать цели, противоречащие интересам человека
Система ИИ может разработать цели, противоречащие интересам человека, что потенциально может привести к
тому, что неправильно настроенный ИИ выйдет из-под контроля и причинит серьезный вред.
Это становится особенно опасным в тех случаях, когда системы ИИ способны достичь уровня человеческого
интеллекта или даже превзойти его.
Искусственный интеллект становится разумным
По мере того как системы ИИ становятся все более сложными и совершенными, существует вероятность того, что
они достигнут разумности - способности воспринимать эмоции или ощущения - и приобретут субъективный опыт,
включая удовольствие и боль.
В этом случае перед учеными и регулирующими органами может встать задача определить, заслуживают ли эти
системы ИИ аналогичного к себе отношения, как к людям, животным или окружающей среде.
Риск заключается в том, что разумный ИИ может столкнуться с жестоким обращением или пострадать, если не
будут реализованы его права.