Будущее искусственного интеллекта
ОСТОРОЖНО Deepfakes
Дипфейк — методика синтеза изображения.
Последнее время фиксируется бурный всплеск использования для преступных целей этой технологии,
основанной на искусственном интеллекте. Цели у злоумышленников могут быть самые разные.
Начиная от мошенничества, кончая политическими акциями влияющими на глобальные процессы.
Как, например, модели Grok-2, интегрированные с Flux, позволяют пользователям создавать
высокореалистичные изображения без строгих ограничений на содержание, характерных для других систем искусственного интеллекта.
Это позволило заполнить Сеть разнообразным, порой спорным, контентом.
Галерея пока безобидных изображений создаваемых ИИ.
Найдите отличия
Что-же такое Дипфейк ?
Создание фейковых цифровых персон на фото и видео известно довольно давно.Наверное читателям уже приходилось видеть примеры таких видеороликов.
Однако, использование для этих целей нейросетей позволяет генерировать не только видео, но и голос.
Это крайне опасно, т.к. означает, что любой человек может быть изображен на видео, когда он совершает что-либо предосудительное...
Мето́дика синтеза изображения используется для наложения существующих изображений и видео на оказавшиеся в распоряжении
злоумышленников исходные изображения или видеоролики с человеком являющимся целью готовящейся фальсификации.
При этом, искусственно созданный видеоролик выглядит довольно правдоподобно , т.к. в моменты воспроизведения видеоряда
слышен синтезированный голос персонажа. Отличить фейк от подлинника неспециалисту достаточно сложно. А это означает, что
для разоблачения злоумышленников потребуется приложить значительные усилия.
Для обычных людей могу лишь рекомендовать относиться с максимальной осторожностью и недоверием к всевозможным видеороликам,
на которых отображаются ваши близкие и родные вам люди. В любом случае следует тщательно изучить истории их появления,
опросить участников подобных роликов, для установления истины.
Что касается бизнесменов, политиков и публичных персон, то они в любом случае должны обращаться
к экспертам для установления достоверности видеоматериала.