
Фото: портал мэра и правительства Москвы
Контент, созданный искусственным интеллектом, становится все более реалистичным, однако у него по-прежнему остаются характерные признаки – искаженная анатомия, нарушение логики повествования и другие. Об этом рассказали эксперты проекта «Перезвони сам», передает портал мэра и правительства столицы.
«В большинстве случаев пользователи публикуют ИИ-контент в интернете для развлечений, например создают в социальных сетях аккаунты персон, которых не существует, и публикуют в них сгенерированные изображения. Но и злоумышленники могут использовать технологию, чтобы обмануть, ввести в заблуждение или совершить преступление», – ответили в пресс-службе столичного департамента информационных технологий.
Специалисты пояснили, что тексты, написанные нейросетями, обычно выглядят грамотно и структурировано, но при внимательном чтении в них можно заметить повторяющиеся мысли, логические несостыковки и недостоверные факты. Кроме того, таким материалам нередко не хватает личного опыта, оригинальной позиции и живых примеров.
Эксперты посоветовали обращать внимание и на источник публикации. Особое внимание следует уделять анонимным каналам, рассылкам от неизвестных адресов, а также массовым рассылкам в нестандартное время. Кроме того, можно проверить авторство текста через специальные ИИ-детекторы.
При анализе фотографий стоит вглядываться в детали, так как ИИ-изображений чаще всего выдают проблемы с анатомией – неестественный взгляд, лишние пальцы, искаженная форма ушей, странные складки одежды и нелогичное расположение предметов в кадре.
Также подозрение могут вызвать неестественные тени, ошибки в надписях, размытые логотипы и отсутствие метаданных файла (сведений о времени съемки, устройстве или месте создания снимка). Как и в случае с текстами, ИИ-детекторы или сами нейросети могут помочь определить, является ли изображение фотографией или продуктом искусственного интеллекта.
Сгенерированные видеоролики чаще всего выдает несовпадение речи с движением губ. Кроме того, на искусственное происхождение ролика могут указывать неестественная мимика, неподвижный взгляд, странная реакция зрачков на свет, хаотичные жесты и визуальные артефакты, например, исчезающие предметы или искаженные детали.
Эксперты порекомендовали особенно внимательно относиться к роликам, где известные люди делают громкие заявления. Их подлинность можно проверить, сравнив его с прошлыми выступлениями человека.
Также в рамках инициативы «Перезвони сам» разработан бесплатный телеграм-бот «Стопфейк», предназначенный для обнаружения синтезированной речи и индикаторов мошенничества в сообщениях. Используя искусственный интеллект, сервис анализирует текстовые сообщения, скриншоты и аудиофайлы, оценивая вероятность мошеннических действий.
Ранее россиян предупредили, что аферисты могут начать рассылать фишинговые ссылки и вредоносные программы под видом открыток к 9 Мая. Особенно опасны APK-файлы, так как они предлагают скачать на телефон приложение, через которое злоумышленники впоследствии смогут получить доступ к гаджету.
Мошенники начали рассылать столичным автовладельцам сообщения о штрафах за парковку
НОВОСТИ В РОССИИ