Close Menu
Top-AI

    Підпишіться на оновлення

    Отримуйте останні творчі новини від FooBar про мистецтво, дизайн і бізнес.

    Що нового?

    YouScan: AI-платформа для моніторингу та аналітики соціальних медіа

    26 Вересня, 2025

    Штучний інтелект у морській галузі: комплексна трансформація від навігації до екології

    24 Вересня, 2025

    Descript — AI-інструмент для редагування відео та аудіо: новий підхід до контенту

    19 Вересня, 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram LinkedIn
    Top-AI
    Підписуйтесь
    • TOP AI
    • Маркетинг та ШІ
      • Контент
      • Копірайт
      • Оптимізація роботи
      • Події
    • Новини
    • Продукти та технології
    • Огляд сервісів ШІ
    • Крипто
    Top-AI
    Продукти та технології

    Як виявити AI дипфейки – Апокаліпсис AI deepfake настав.

    Антон ШевченкоBy Антон Шевченко5 Квітня, 2024Updated:15 Квітня, 2024Коментарів немає8 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Як виявити AI дипфейки
    Поділитись
    Facebook Twitter LinkedIn Pinterest Email
    Як виявити AI дипфейки

    Зростаюча група дослідників і стартапів створює інструменти для ідентифікації та відстеження глибоких фейкових зображень, перш ніж вони повністю захоплять Інтернет.

    Зображення, створені штучним інтелектом, всюди. Їх використовують для створення порнографії без згоди, заплутування правди під час виборів і просування продуктів у соціальних мережах за допомогою видань знаменитостей.

    Коли минулого місяця принцеса Кетрін оприлюднила відео, в якому розкривається, що вона хвора на рак, соціальні мережі зашуміли останніми безпідставними заявами про те, що для маніпулювання відео використовувався штучний інтелект. І BBC Studios, яка зняла відео, і Кенсінгтонський палац заперечували причетність штучного інтелекту. Але це не зупинило спекуляції.

    Експерти кажуть, що проблема буде тільки погіршуватися. Сьогодні якість деяких підроблених зображень настільки висока, що їх майже неможливо відрізнити від справжніх. В одному відомому випадку фінансовий менеджер банку Гонконгу переказав близько 25,6 мільйонів доларів шахраям, які використовували штучний інтелект, щоб видати себе за начальників працівника під час відеодзвінка. І інструменти для створення цих підробок безкоштовні та широко доступні.

    Зростаюча група дослідників, науковців і засновників стартапів працює над способами відстеження та позначення вмісту ШІ. Використовуючи різноманітні методи та створюючи альянси з новинними організаціями, великими технологічними компаніями та навіть виробниками фотоапаратів, вони сподіваються вберегти зображення штучного інтелекту від подальшого погіршення здатності громадськості розуміти, що є правдою, а що ні.

    «Рік тому ми все ще бачили зображення штучного інтелекту, і вони були безглуздими», — сказав Ріджул Гупта, засновник і генеральний директор DeepMedia AI, стартапу з виявлення глибоких фейків. «Тепер вони ідеальні».

    Ось короткий перелік основних методів, які розробляються для стримування апокаліпсису зображень ШІ.

    Зміст

    Toggle
    • ШІ-зображення водяних знаків
      • Позначення реальних зображень
    • Програмне забезпечення для виявлення
    • Припустимо, що це підробка

    ШІ-зображення водяних знаків

    Цифрові водяні знаки не є чимось новим. Вони роками використовуються лейблами звукозапису та кіностудіями, які хочуть мати можливість захистити свій вміст від піратства. Але вони стали однією з найпопулярніших ідей, які допомагають впоратися з хвилею зображень, створених ШІ.

    Коли президент Байден у жовтні підписав знаменний указ щодо штучного інтелекту, він доручив уряду розробити стандарти, яких компанії повинні дотримуватися при нанесенні водяних знаків на зображення.

    Деякі компанії вже розміщують видимі мітки на зображеннях, створених їхніми генераторами ШІ. OpenAI прикріплює п’ять маленьких кольорових прямокутників у нижньому правому куті зображень, створених за допомогою генераторів зображень Dall-E. Але мітки можна легко обрізати або вилучити із зображення в фотошопі. Інші популярні інструменти створення зображень зі штучним інтелектом, такі як Stable Diffusion, навіть не додають міток.

    Зображення згенеровано ШІ
    Фальшиве зображення OpenAI, створене штучним інтелектом, яке прикріплює п’ять маленьких кольорових прямокутників у нижньому правому куті свого вмісту штучного інтелекту. (Ілюстрація Washington Post; OpenAI)

    Таким чином, галузь більше зосереджується на невидимих ​​водяних знаках, які запікаються в самому зображенні. Вони невидимі для людського ока, але можуть бути виявлені, скажімо, платформою соціальних мереж, яка потім позначатиме їх перш ніж їх побачать глядачі.

    Хоча вони далекі від досконалості. Попередні версії водяних знаків можна було легко видалити або підробити, просто змінивши кольори на зображенні або навіть перевернувши його на бік. Google, яка надає інструменти для створення зображень своїм споживачам і бізнес-клієнтам, минулого року заявила, що розробила технологію водяного знака під назвою SynthID, яка може протистояти підробці.

    Зображення згенеровано ШІ
    ЗОБРАЖЕННЯ, СТВОРЕНЕ ШІ: новий інструмент водяних знаків Google цифровим способом вставляє водяні знаки в зображення, створені ШІ, які не видно людському оку. Навіть якщо зображення, створене штучним інтелектом, було відредаговано або змінено, як показано тут, інструмент усе одно зможе виявити цифровий водяний знак. (Ілюстрація Washington Post; Google)

    Але в лютневій статті дослідники з Університету Меріленда показали, що підходи, розроблені Google та іншими технологічними гігантами для створення водяних знаків на своїх зображеннях штучного інтелекту, можна перевершити.

    “Це не вирішить проблему”, – сказав Сохейл Фейзі, один із дослідників.

    Розробка надійної системи водяних знаків, якої погоджуються дотримуватися Big Tech і соціальні медіа-платформи, має допомогти значно зменшити проблему глибоких фейків, які вводять людей в оману в Інтернеті, сказав Ніко Декенс, директор із розвідки компанії ShadowDragon, що займається кібербезпекою, стартапу, який створює інструменти для допомоги людям. проводити розслідування, використовуючи зображення та публікації в соціальних мережах з Інтернету.

    «Водяні знаки точно допоможуть», — сказав Декенс. Але «це точно не водонепроникне рішення, тому що все, що зібрано цифровим способом, можна зламати, підробити або змінити», — сказав він.

    Позначення реальних зображень

    Окрім нанесення водяних знаків на зображення штучного інтелекту, технологічна індустрія також почала говорити про маркування реальних зображень, накладаючи дані на кожен піксель безпосередньо під час фотографування фотокамерою, щоб забезпечити запис того, що індустрія називає його «походженням».

    Ще до того, як OpenAI випустив ChatGPT наприкінці 2022 року та поклав початок буму штучного інтелекту, виробники фотоапаратів Nikon і Leica почали розробляти способи друку спеціальних «метаданих», які вказують, коли та ким було зроблено фотографію безпосередньо під час створення зображення камерою. Canon і Sony розпочали аналогічні програми, а компанія Qualcomm, яка виробляє комп’ютерні чіпи для смартфонів, каже, що має подібний проект із додавання метаданих до зображень, зроблених камерами телефонів.

    Такі новинні організації, як BBC, Associated Press і Thomson Reuters, співпрацюють із компаніями-виробниками фотоапаратів над створенням систем перевірки автентифікаційних даних перед публікацією фотографій.

    Сайти соціальних мереж також можуть підхопити цю систему, позначаючи справжні та підроблені зображення як такі, допомагаючи користувачам знати, на що вони дивляться, подібно до того, як деякі платформи позначають вміст, який може містити дезінформацію проти вакцин або урядову пропаганду. Сайти можуть навіть визначати пріоритет реального вмісту в алгоритмічних рекомендаціях або дозволяти користувачам відфільтровувати вміст AI.

    Але побудова системи, де реальні зображення перевіряються та позначаються в соціальних мережах або на веб-сайті новин, може мати непередбачені наслідки. Хакери могли з’ясувати, як компанії-виробники фотоапаратів застосовують метадані до зображення та додають їх до підроблених зображень, які потім отримають пропуск у соціальних мережах через підроблені метадані.

    «Небезпечно вірити, що існують реальні рішення проти зловмисників», — сказала Вів’єн Шаппельє, керівник відділу досліджень і розробок Imatag, стартапу, який допомагає компаніям і новинним організаціям розміщувати водяні знаки та мітки на реальних зображеннях, щоб вони не використовувалися неналежним чином. Але ускладнення випадкового розповсюдження підроблених зображень або надання людям більше контексту щодо того, що вони бачать в Інтернеті, все одно корисно.

    «Ми намагаємося трохи підняти планку», — сказав Чаппельєр.

    Adobe, яка вже давно продає програмне забезпечення для редагування фотографій і відео, а тепер пропонує своїм клієнтам інструменти для генерації зображень зі штучним інтелектом, наполягає на тому, щоб компанії зі штучним інтелектом, новинні організації та платформи соціальних мереж дотримувалися стандарту для визначення та позначення справжніх зображень. і дипфейки.

    Зображення штучного інтелекту залишаються назавжди, і для того, щоб контролювати їх, доведеться поєднувати різні методи, сказала Дана Рао, головний юрисконсульт Adobe.

    Програмне забезпечення для виявлення

    Деякі компанії, включно з Reality Defender і Deep Media, розробили інструменти для виявлення дипфейків на основі базової технології, яку використовують генератори зображень ШІ.

    Показуючи алгоритму штучного інтелекту десятки мільйонів зображень, позначених як фальшиві або справжні, модель починає розрізняти їх, будуючи внутрішнє «розуміння» того, які елементи можуть видавати зображення як фальшиве. Зображення проходять через цю модель, і якщо вона виявляє ці елементи, вона оголошує, що зображення створено ШІ.

    Зображення згенеровано ШІ
    Технологія DeepMedia сканує згенероване штучним інтелектом підроблене фото президента Байдена в дутому пальті та робить висновок, що воно, ймовірно, підроблене. (DeepMedia AI)

    Інструменти також можуть виділяти, які частини зображення, на думку штучного інтелекту, видає їх як підроблені. Хоча люди можуть класифікувати зображення як створене штучним інтелектом на основі дивної кількості пальців, штучний інтелект часто наближає ділянку світла чи тіні, які, на його думку, виглядають не зовсім правильно.

    Є й інші речі, на які слід звернути увагу, наприклад, чи є у людини видима вена в анатомічно правильному місці, сказав Бен Колман, засновник Reality Defender. «Ти або дипфейк, або вампір», — сказав він.

    Колман уявляє собі світ, де сканування на наявність глибоких фейків є звичайною частиною програмного забезпечення кібербезпеки комп’ютера, подібно до того, як програми електронної пошти, такі як Gmail, тепер автоматично фільтрують очевидний спам. «Саме туди ми збираємося йти», — сказав Колман.

    Зображення згенеровано ШІ
    Програмне забезпечення Reality Defender сканує фальшиве зображення, створене штучним інтелектом, за допомогою кількох алгоритмів глибокого розпізнавання фейків. Система підсвічувала повіки людини як натяк на те, що це підробка. (Захисник реальності)

    Але це нелегко. Деякі попереджають, що надійне виявлення дипфейків, ймовірно, стане неможливим, оскільки технології, що стоять за генераторами зображень ШІ, змінюються та вдосконалюються.

    «Якщо проблема складна сьогодні, наступного року вона буде набагато складнішою», — сказав Фейзі, дослідник Університету Меріленда. «Це буде майже неможливо через п’ять років».

    Припустимо, що це підробка

    Навіть якщо всі ці методи виявляться успішними і великі технологічні компанії повністю підключаться до них, людям все одно доведеться критично ставитися до того, що вони бачать в Інтернеті.

    «Нічого не припускайте, нікому і нічому не вірте та сумнівайтеся в усьому», — сказав Декенс, дослідник відкритих джерел. «Якщо ви сумніваєтеся, просто припустіть, що це підробка».

    Оскільки цього року в Сполучених Штатах та інших великих демократичних країнах наближаються вибори, технологія може бути не готова до такої кількості дезінформації та фейкових зображень, створених ШІ, які будуть розміщені в Інтернеті.

    «Найважливіше, що вони можуть зробити для цих виборів, які наближаються зараз, — це сказати людям, що вони не повинні вірити всьому, що бачать і чують», — сказав Рао, генеральний радник Adobe.


    Від себе я хочу наголосити на важливості виявлення та протидії deepfake технологіям, вказуючи на їх потенційну загрозу для інформаційної безпеки та соціальної стабільності. Акцентую на необхідності глобальної співпраці, розвитку технологій для виявлення фальшивок і важливості освіти громадськості щодо цього питання.

    Поділитись. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Антон Шевченко
    • LinkedIn

    Антон Шевченко відомий своєю відданістю підвищенню рівня інформаційної грамотності в галузі штучного інтелекту. Він прагне створювати вміст, який б допомагав користувачам сайту Top-AI не лише зрозуміти технічні аспекти, але й розглядати етичні та соціальні виклики, пов’язані із штучним інтелектом.

    Пов'язані публікації

    YouScan: AI-платформа для моніторингу та аналітики соціальних медіа

    26 Вересня, 2025

    Штучний інтелект у морській галузі: комплексна трансформація від навігації до екології

    24 Вересня, 2025

    Originality.ai під мікроскопом: що я з’ясувала про найтехнологічніший AI-детектор

    1 Серпня, 2025

    ШІ-асистент у «Дії»: інтерактивність та доступність

    29 Травня, 2025
    Add A Comment

    Comments are closed.

    Вибір редакції

    Чи попереджав Стівен Гокінг, що штучний інтелект може означати кінець людської раси?

    3 Січня, 2024

    Чи призводить впровадження ШІ до масових звільнень: досвід українського бізнесу

    10 Вересня, 2025

    Aria – мій новий найкращий друг в Інтернеті

    20 Лютого, 2025

    Google скоро почне маркувати ШІ-зображення в Пошуку

    23 Вересня, 2024
    Найкращі огляди

    Copy.ai — AI-інструмент для швидкого створення контенту

    Огляд AI Grader від Ahrefs – інструмент для оцінки контенту

    Досі боїтеся, що у ваших роботах помітять ШІ? Огляд сервісу GPTinf

    Про Нас
    Про Нас

    ТОП AI — це місце, де реалізується майбутнє. Це найважливіший джерело інформації та ідей про Штучний інтелект, які надають сенс світу, що знаходиться в постійній трансформації. Top AI показує, як технології ШІ змінюють кожен аспект нашого життя. Прориви та інновації, які ми освітлюємо, ведуть до нового мислення, новим зв'язкам і новим відросткам. Ми приймаємо нові можливості партнерства прямо зараз.

    Email Us: [email protected]
    Contact: +380972778349

    Останні оновлення

    YouScan: AI-платформа для моніторингу та аналітики соціальних медіа

    26 Вересня, 2025

    Штучний інтелект у морській галузі: комплексна трансформація від навігації до екології

    24 Вересня, 2025

    Descript — AI-інструмент для редагування відео та аудіо: новий підхід до контенту

    19 Вересня, 2025

    Copy.ai — AI-інструмент для швидкого створення контенту

    17 Вересня, 2025
    Зручна навігація
    • TOP AI
    • Маркетинг та ШІ
      • Контент
      • Копірайт
      • Оптимізація роботи
      • Події
    • Новини
    • Продукти та технології
    • Огляд сервісів ШІ
    • Крипто
    Top-AI
    Facebook X (Twitter) Instagram Pinterest LinkedIn
    • Головна
    • Про нас
    • Контакти
    • Наша команда
    • Політика Cookies
    • Політика конфіденційності
    • Словник з кібербезпеки
    Усі права захищені © top-ai.com.ua 2025

    Зоповніть поле та натисніть Enter для пошуку. Натисніть Esc, щоб скасувати.