![Як виявити AI дипфейки](https://top-ai.com.ua/wp-content/uploads/2024/04/image-1.png)
Зростаюча група дослідників і стартапів створює інструменти для ідентифікації та відстеження глибоких фейкових зображень, перш ніж вони повністю захоплять Інтернет.
Зображення, створені штучним інтелектом, всюди. Їх використовують для створення порнографії без згоди, заплутування правди під час виборів і просування продуктів у соціальних мережах за допомогою видань знаменитостей.
Коли минулого місяця принцеса Кетрін оприлюднила відео, в якому розкривається, що вона хвора на рак, соціальні мережі зашуміли останніми безпідставними заявами про те, що для маніпулювання відео використовувався штучний інтелект. І BBC Studios, яка зняла відео, і Кенсінгтонський палац заперечували причетність штучного інтелекту. Але це не зупинило спекуляції.
Експерти кажуть, що проблема буде тільки погіршуватися. Сьогодні якість деяких підроблених зображень настільки висока, що їх майже неможливо відрізнити від справжніх. В одному відомому випадку фінансовий менеджер банку Гонконгу переказав близько 25,6 мільйонів доларів шахраям, які використовували штучний інтелект, щоб видати себе за начальників працівника під час відеодзвінка. І інструменти для створення цих підробок безкоштовні та широко доступні.
Зростаюча група дослідників, науковців і засновників стартапів працює над способами відстеження та позначення вмісту ШІ. Використовуючи різноманітні методи та створюючи альянси з новинними організаціями, великими технологічними компаніями та навіть виробниками фотоапаратів, вони сподіваються вберегти зображення штучного інтелекту від подальшого погіршення здатності громадськості розуміти, що є правдою, а що ні.
«Рік тому ми все ще бачили зображення штучного інтелекту, і вони були безглуздими», — сказав Ріджул Гупта, засновник і генеральний директор DeepMedia AI, стартапу з виявлення глибоких фейків. «Тепер вони ідеальні».
Ось короткий перелік основних методів, які розробляються для стримування апокаліпсису зображень ШІ.
ШІ-зображення водяних знаків
Цифрові водяні знаки не є чимось новим. Вони роками використовуються лейблами звукозапису та кіностудіями, які хочуть мати можливість захистити свій вміст від піратства. Але вони стали однією з найпопулярніших ідей, які допомагають впоратися з хвилею зображень, створених ШІ.
Коли президент Байден у жовтні підписав знаменний указ щодо штучного інтелекту, він доручив уряду розробити стандарти, яких компанії повинні дотримуватися при нанесенні водяних знаків на зображення.
Деякі компанії вже розміщують видимі мітки на зображеннях, створених їхніми генераторами ШІ. OpenAI прикріплює п’ять маленьких кольорових прямокутників у нижньому правому куті зображень, створених за допомогою генераторів зображень Dall-E. Але мітки можна легко обрізати або вилучити із зображення в фотошопі. Інші популярні інструменти створення зображень зі штучним інтелектом, такі як Stable Diffusion, навіть не додають міток.
![Зображення згенеровано ШІ](https://top-ai.com.ua/wp-content/uploads/2024/04/imrs-995x1024.png)
Таким чином, галузь більше зосереджується на невидимих водяних знаках, які запікаються в самому зображенні. Вони невидимі для людського ока, але можуть бути виявлені, скажімо, платформою соціальних мереж, яка потім позначатиме їх перш ніж їх побачать глядачі.
Хоча вони далекі від досконалості. Попередні версії водяних знаків можна було легко видалити або підробити, просто змінивши кольори на зображенні або навіть перевернувши його на бік. Google, яка надає інструменти для створення зображень своїм споживачам і бізнес-клієнтам, минулого року заявила, що розробила технологію водяного знака під назвою SynthID, яка може протистояти підробці.
![Зображення згенеровано ШІ](https://top-ai.com.ua/wp-content/uploads/2024/04/imrs-1024x361.webp)
Але в лютневій статті дослідники з Університету Меріленда показали, що підходи, розроблені Google та іншими технологічними гігантами для створення водяних знаків на своїх зображеннях штучного інтелекту, можна перевершити.
“Це не вирішить проблему”, – сказав Сохейл Фейзі, один із дослідників.
Розробка надійної системи водяних знаків, якої погоджуються дотримуватися Big Tech і соціальні медіа-платформи, має допомогти значно зменшити проблему глибоких фейків, які вводять людей в оману в Інтернеті, сказав Ніко Декенс, директор із розвідки компанії ShadowDragon, що займається кібербезпекою, стартапу, який створює інструменти для допомоги людям. проводити розслідування, використовуючи зображення та публікації в соціальних мережах з Інтернету.
«Водяні знаки точно допоможуть», — сказав Декенс. Але «це точно не водонепроникне рішення, тому що все, що зібрано цифровим способом, можна зламати, підробити або змінити», — сказав він.
Позначення реальних зображень
Окрім нанесення водяних знаків на зображення штучного інтелекту, технологічна індустрія також почала говорити про маркування реальних зображень, накладаючи дані на кожен піксель безпосередньо під час фотографування фотокамерою, щоб забезпечити запис того, що індустрія називає його «походженням».
Ще до того, як OpenAI випустив ChatGPT наприкінці 2022 року та поклав початок буму штучного інтелекту, виробники фотоапаратів Nikon і Leica почали розробляти способи друку спеціальних «метаданих», які вказують, коли та ким було зроблено фотографію безпосередньо під час створення зображення камерою. Canon і Sony розпочали аналогічні програми, а компанія Qualcomm, яка виробляє комп’ютерні чіпи для смартфонів, каже, що має подібний проект із додавання метаданих до зображень, зроблених камерами телефонів.
Такі новинні організації, як BBC, Associated Press і Thomson Reuters, співпрацюють із компаніями-виробниками фотоапаратів над створенням систем перевірки автентифікаційних даних перед публікацією фотографій.
Сайти соціальних мереж також можуть підхопити цю систему, позначаючи справжні та підроблені зображення як такі, допомагаючи користувачам знати, на що вони дивляться, подібно до того, як деякі платформи позначають вміст, який може містити дезінформацію проти вакцин або урядову пропаганду. Сайти можуть навіть визначати пріоритет реального вмісту в алгоритмічних рекомендаціях або дозволяти користувачам відфільтровувати вміст AI.
Але побудова системи, де реальні зображення перевіряються та позначаються в соціальних мережах або на веб-сайті новин, може мати непередбачені наслідки. Хакери могли з’ясувати, як компанії-виробники фотоапаратів застосовують метадані до зображення та додають їх до підроблених зображень, які потім отримають пропуск у соціальних мережах через підроблені метадані.
«Небезпечно вірити, що існують реальні рішення проти зловмисників», — сказала Вів’єн Шаппельє, керівник відділу досліджень і розробок Imatag, стартапу, який допомагає компаніям і новинним організаціям розміщувати водяні знаки та мітки на реальних зображеннях, щоб вони не використовувалися неналежним чином. Але ускладнення випадкового розповсюдження підроблених зображень або надання людям більше контексту щодо того, що вони бачать в Інтернеті, все одно корисно.
«Ми намагаємося трохи підняти планку», — сказав Чаппельєр.
Adobe, яка вже давно продає програмне забезпечення для редагування фотографій і відео, а тепер пропонує своїм клієнтам інструменти для генерації зображень зі штучним інтелектом, наполягає на тому, щоб компанії зі штучним інтелектом, новинні організації та платформи соціальних мереж дотримувалися стандарту для визначення та позначення справжніх зображень. і дипфейки.
Зображення штучного інтелекту залишаються назавжди, і для того, щоб контролювати їх, доведеться поєднувати різні методи, сказала Дана Рао, головний юрисконсульт Adobe.
Програмне забезпечення для виявлення
Деякі компанії, включно з Reality Defender і Deep Media, розробили інструменти для виявлення дипфейків на основі базової технології, яку використовують генератори зображень ШІ.
Показуючи алгоритму штучного інтелекту десятки мільйонів зображень, позначених як фальшиві або справжні, модель починає розрізняти їх, будуючи внутрішнє «розуміння» того, які елементи можуть видавати зображення як фальшиве. Зображення проходять через цю модель, і якщо вона виявляє ці елементи, вона оголошує, що зображення створено ШІ.
![Зображення згенеровано ШІ](https://top-ai.com.ua/wp-content/uploads/2024/04/imrs-_1_-1024x667.png)
Інструменти також можуть виділяти, які частини зображення, на думку штучного інтелекту, видає їх як підроблені. Хоча люди можуть класифікувати зображення як створене штучним інтелектом на основі дивної кількості пальців, штучний інтелект часто наближає ділянку світла чи тіні, які, на його думку, виглядають не зовсім правильно.
Є й інші речі, на які слід звернути увагу, наприклад, чи є у людини видима вена в анатомічно правильному місці, сказав Бен Колман, засновник Reality Defender. «Ти або дипфейк, або вампір», — сказав він.
Колман уявляє собі світ, де сканування на наявність глибоких фейків є звичайною частиною програмного забезпечення кібербезпеки комп’ютера, подібно до того, як програми електронної пошти, такі як Gmail, тепер автоматично фільтрують очевидний спам. «Саме туди ми збираємося йти», — сказав Колман.
![Зображення згенеровано ШІ](https://top-ai.com.ua/wp-content/uploads/2024/04/imrs-2-1011x1024.png)
Але це нелегко. Деякі попереджають, що надійне виявлення дипфейків, ймовірно, стане неможливим, оскільки технології, що стоять за генераторами зображень ШІ, змінюються та вдосконалюються.
«Якщо проблема складна сьогодні, наступного року вона буде набагато складнішою», — сказав Фейзі, дослідник Університету Меріленда. «Це буде майже неможливо через п’ять років».
Припустимо, що це підробка
Навіть якщо всі ці методи виявляться успішними і великі технологічні компанії повністю підключаться до них, людям все одно доведеться критично ставитися до того, що вони бачать в Інтернеті.
«Нічого не припускайте, нікому і нічому не вірте та сумнівайтеся в усьому», — сказав Декенс, дослідник відкритих джерел. «Якщо ви сумніваєтеся, просто припустіть, що це підробка».
Оскільки цього року в Сполучених Штатах та інших великих демократичних країнах наближаються вибори, технологія може бути не готова до такої кількості дезінформації та фейкових зображень, створених ШІ, які будуть розміщені в Інтернеті.
«Найважливіше, що вони можуть зробити для цих виборів, які наближаються зараз, — це сказати людям, що вони не повинні вірити всьому, що бачать і чують», — сказав Рао, генеральний радник Adobe.
Від себе я хочу наголосити на важливості виявлення та протидії deepfake технологіям, вказуючи на їх потенційну загрозу для інформаційної безпеки та соціальної стабільності. Акцентую на необхідності глобальної співпраці, розвитку технологій для виявлення фальшивок і важливості освіти громадськості щодо цього питання.