Close Menu
Top-AI

    Підпишіться на оновлення

    Отримуйте останні творчі новини від FooBar про мистецтво, дизайн і бізнес.

    Що нового?

    P2E — Play to Earn: як заробляти, граючи у 2025 році

    29 Листопада, 2025

    Хмарний ШІ (Cloud AI): як компанії використовують нейромережі у бізнесі

    27 Листопада, 2025

    Антивірусні програми 2025: які дійсно працюють

    26 Листопада, 2025
    Facebook X (Twitter) Instagram
    Facebook X (Twitter) Instagram LinkedIn
    Top-AI
    Підписуйтесь
    • TOP AI
    • Маркетинг та ШІ
      • Контент
      • Копірайт
      • Оптимізація роботи
      • Події
    • Новини
    • Продукти та технології
    • Огляд сервісів ШІ
    • Крипто
    Top-AI
    Продукти та технології

    Як виявити AI дипфейки – Апокаліпсис AI deepfake настав.

    Антон ШевченкоBy Антон Шевченко5 Квітня, 2024Updated:15 Квітня, 2024Коментарів немає8 Mins Read
    Facebook Twitter Pinterest LinkedIn Tumblr Email
    Як виявити AI дипфейки
    Поділитись
    Facebook Twitter LinkedIn Pinterest Email
    Як виявити AI дипфейки

    Зростаюча група дослідників і стартапів створює інструменти для ідентифікації та відстеження глибоких фейкових зображень, перш ніж вони повністю захоплять Інтернет.

    Зображення, створені штучним інтелектом, всюди. Їх використовують для створення порнографії без згоди, заплутування правди під час виборів і просування продуктів у соціальних мережах за допомогою видань знаменитостей.

    Коли минулого місяця принцеса Кетрін оприлюднила відео, в якому розкривається, що вона хвора на рак, соціальні мережі зашуміли останніми безпідставними заявами про те, що для маніпулювання відео використовувався штучний інтелект. І BBC Studios, яка зняла відео, і Кенсінгтонський палац заперечували причетність штучного інтелекту. Але це не зупинило спекуляції.

    Експерти кажуть, що проблема буде тільки погіршуватися. Сьогодні якість деяких підроблених зображень настільки висока, що їх майже неможливо відрізнити від справжніх. В одному відомому випадку фінансовий менеджер банку Гонконгу переказав близько 25,6 мільйонів доларів шахраям, які використовували штучний інтелект, щоб видати себе за начальників працівника під час відеодзвінка. І інструменти для створення цих підробок безкоштовні та широко доступні.

    Зростаюча група дослідників, науковців і засновників стартапів працює над способами відстеження та позначення вмісту ШІ. Використовуючи різноманітні методи та створюючи альянси з новинними організаціями, великими технологічними компаніями та навіть виробниками фотоапаратів, вони сподіваються вберегти зображення штучного інтелекту від подальшого погіршення здатності громадськості розуміти, що є правдою, а що ні.

    «Рік тому ми все ще бачили зображення штучного інтелекту, і вони були безглуздими», — сказав Ріджул Гупта, засновник і генеральний директор DeepMedia AI, стартапу з виявлення глибоких фейків. «Тепер вони ідеальні».

    Ось короткий перелік основних методів, які розробляються для стримування апокаліпсису зображень ШІ.

    Зміст

    Toggle
    • ШІ-зображення водяних знаків
      • Позначення реальних зображень
    • Програмне забезпечення для виявлення
    • Припустимо, що це підробка

    ШІ-зображення водяних знаків

    Цифрові водяні знаки не є чимось новим. Вони роками використовуються лейблами звукозапису та кіностудіями, які хочуть мати можливість захистити свій вміст від піратства. Але вони стали однією з найпопулярніших ідей, які допомагають впоратися з хвилею зображень, створених ШІ.

    Коли президент Байден у жовтні підписав знаменний указ щодо штучного інтелекту, він доручив уряду розробити стандарти, яких компанії повинні дотримуватися при нанесенні водяних знаків на зображення.

    Деякі компанії вже розміщують видимі мітки на зображеннях, створених їхніми генераторами ШІ. OpenAI прикріплює п’ять маленьких кольорових прямокутників у нижньому правому куті зображень, створених за допомогою генераторів зображень Dall-E. Але мітки можна легко обрізати або вилучити із зображення в фотошопі. Інші популярні інструменти створення зображень зі штучним інтелектом, такі як Stable Diffusion, навіть не додають міток.

    Зображення згенеровано ШІ
    Фальшиве зображення OpenAI, створене штучним інтелектом, яке прикріплює п’ять маленьких кольорових прямокутників у нижньому правому куті свого вмісту штучного інтелекту. (Ілюстрація Washington Post; OpenAI)

    Таким чином, галузь більше зосереджується на невидимих ​​водяних знаках, які запікаються в самому зображенні. Вони невидимі для людського ока, але можуть бути виявлені, скажімо, платформою соціальних мереж, яка потім позначатиме їх перш ніж їх побачать глядачі.

    Хоча вони далекі від досконалості. Попередні версії водяних знаків можна було легко видалити або підробити, просто змінивши кольори на зображенні або навіть перевернувши його на бік. Google, яка надає інструменти для створення зображень своїм споживачам і бізнес-клієнтам, минулого року заявила, що розробила технологію водяного знака під назвою SynthID, яка може протистояти підробці.

    Зображення згенеровано ШІ
    ЗОБРАЖЕННЯ, СТВОРЕНЕ ШІ: новий інструмент водяних знаків Google цифровим способом вставляє водяні знаки в зображення, створені ШІ, які не видно людському оку. Навіть якщо зображення, створене штучним інтелектом, було відредаговано або змінено, як показано тут, інструмент усе одно зможе виявити цифровий водяний знак. (Ілюстрація Washington Post; Google)

    Але в лютневій статті дослідники з Університету Меріленда показали, що підходи, розроблені Google та іншими технологічними гігантами для створення водяних знаків на своїх зображеннях штучного інтелекту, можна перевершити.

    “Це не вирішить проблему”, – сказав Сохейл Фейзі, один із дослідників.

    Розробка надійної системи водяних знаків, якої погоджуються дотримуватися Big Tech і соціальні медіа-платформи, має допомогти значно зменшити проблему глибоких фейків, які вводять людей в оману в Інтернеті, сказав Ніко Декенс, директор із розвідки компанії ShadowDragon, що займається кібербезпекою, стартапу, який створює інструменти для допомоги людям. проводити розслідування, використовуючи зображення та публікації в соціальних мережах з Інтернету.

    «Водяні знаки точно допоможуть», — сказав Декенс. Але «це точно не водонепроникне рішення, тому що все, що зібрано цифровим способом, можна зламати, підробити або змінити», — сказав він.

    Позначення реальних зображень

    Окрім нанесення водяних знаків на зображення штучного інтелекту, технологічна індустрія також почала говорити про маркування реальних зображень, накладаючи дані на кожен піксель безпосередньо під час фотографування фотокамерою, щоб забезпечити запис того, що індустрія називає його «походженням».

    Ще до того, як OpenAI випустив ChatGPT наприкінці 2022 року та поклав початок буму штучного інтелекту, виробники фотоапаратів Nikon і Leica почали розробляти способи друку спеціальних «метаданих», які вказують, коли та ким було зроблено фотографію безпосередньо під час створення зображення камерою. Canon і Sony розпочали аналогічні програми, а компанія Qualcomm, яка виробляє комп’ютерні чіпи для смартфонів, каже, що має подібний проект із додавання метаданих до зображень, зроблених камерами телефонів.

    Такі новинні організації, як BBC, Associated Press і Thomson Reuters, співпрацюють із компаніями-виробниками фотоапаратів над створенням систем перевірки автентифікаційних даних перед публікацією фотографій.

    Сайти соціальних мереж також можуть підхопити цю систему, позначаючи справжні та підроблені зображення як такі, допомагаючи користувачам знати, на що вони дивляться, подібно до того, як деякі платформи позначають вміст, який може містити дезінформацію проти вакцин або урядову пропаганду. Сайти можуть навіть визначати пріоритет реального вмісту в алгоритмічних рекомендаціях або дозволяти користувачам відфільтровувати вміст AI.

    Але побудова системи, де реальні зображення перевіряються та позначаються в соціальних мережах або на веб-сайті новин, може мати непередбачені наслідки. Хакери могли з’ясувати, як компанії-виробники фотоапаратів застосовують метадані до зображення та додають їх до підроблених зображень, які потім отримають пропуск у соціальних мережах через підроблені метадані.

    «Небезпечно вірити, що існують реальні рішення проти зловмисників», — сказала Вів’єн Шаппельє, керівник відділу досліджень і розробок Imatag, стартапу, який допомагає компаніям і новинним організаціям розміщувати водяні знаки та мітки на реальних зображеннях, щоб вони не використовувалися неналежним чином. Але ускладнення випадкового розповсюдження підроблених зображень або надання людям більше контексту щодо того, що вони бачать в Інтернеті, все одно корисно.

    «Ми намагаємося трохи підняти планку», — сказав Чаппельєр.

    Adobe, яка вже давно продає програмне забезпечення для редагування фотографій і відео, а тепер пропонує своїм клієнтам інструменти для генерації зображень зі штучним інтелектом, наполягає на тому, щоб компанії зі штучним інтелектом, новинні організації та платформи соціальних мереж дотримувалися стандарту для визначення та позначення справжніх зображень. і дипфейки.

    Зображення штучного інтелекту залишаються назавжди, і для того, щоб контролювати їх, доведеться поєднувати різні методи, сказала Дана Рао, головний юрисконсульт Adobe.

    Програмне забезпечення для виявлення

    Деякі компанії, включно з Reality Defender і Deep Media, розробили інструменти для виявлення дипфейків на основі базової технології, яку використовують генератори зображень ШІ.

    Показуючи алгоритму штучного інтелекту десятки мільйонів зображень, позначених як фальшиві або справжні, модель починає розрізняти їх, будуючи внутрішнє «розуміння» того, які елементи можуть видавати зображення як фальшиве. Зображення проходять через цю модель, і якщо вона виявляє ці елементи, вона оголошує, що зображення створено ШІ.

    Зображення згенеровано ШІ
    Технологія DeepMedia сканує згенероване штучним інтелектом підроблене фото президента Байдена в дутому пальті та робить висновок, що воно, ймовірно, підроблене. (DeepMedia AI)

    Інструменти також можуть виділяти, які частини зображення, на думку штучного інтелекту, видає їх як підроблені. Хоча люди можуть класифікувати зображення як створене штучним інтелектом на основі дивної кількості пальців, штучний інтелект часто наближає ділянку світла чи тіні, які, на його думку, виглядають не зовсім правильно.

    Є й інші речі, на які слід звернути увагу, наприклад, чи є у людини видима вена в анатомічно правильному місці, сказав Бен Колман, засновник Reality Defender. «Ти або дипфейк, або вампір», — сказав він.

    Колман уявляє собі світ, де сканування на наявність глибоких фейків є звичайною частиною програмного забезпечення кібербезпеки комп’ютера, подібно до того, як програми електронної пошти, такі як Gmail, тепер автоматично фільтрують очевидний спам. «Саме туди ми збираємося йти», — сказав Колман.

    Зображення згенеровано ШІ
    Програмне забезпечення Reality Defender сканує фальшиве зображення, створене штучним інтелектом, за допомогою кількох алгоритмів глибокого розпізнавання фейків. Система підсвічувала повіки людини як натяк на те, що це підробка. (Захисник реальності)

    Але це нелегко. Деякі попереджають, що надійне виявлення дипфейків, ймовірно, стане неможливим, оскільки технології, що стоять за генераторами зображень ШІ, змінюються та вдосконалюються.

    «Якщо проблема складна сьогодні, наступного року вона буде набагато складнішою», — сказав Фейзі, дослідник Університету Меріленда. «Це буде майже неможливо через п’ять років».

    Припустимо, що це підробка

    Навіть якщо всі ці методи виявляться успішними і великі технологічні компанії повністю підключаться до них, людям все одно доведеться критично ставитися до того, що вони бачать в Інтернеті.

    «Нічого не припускайте, нікому і нічому не вірте та сумнівайтеся в усьому», — сказав Декенс, дослідник відкритих джерел. «Якщо ви сумніваєтеся, просто припустіть, що це підробка».

    Оскільки цього року в Сполучених Штатах та інших великих демократичних країнах наближаються вибори, технологія може бути не готова до такої кількості дезінформації та фейкових зображень, створених ШІ, які будуть розміщені в Інтернеті.

    «Найважливіше, що вони можуть зробити для цих виборів, які наближаються зараз, — це сказати людям, що вони не повинні вірити всьому, що бачать і чують», — сказав Рао, генеральний радник Adobe.


    Від себе я хочу наголосити на важливості виявлення та протидії deepfake технологіям, вказуючи на їх потенційну загрозу для інформаційної безпеки та соціальної стабільності. Акцентую на необхідності глобальної співпраці, розвитку технологій для виявлення фальшивок і важливості освіти громадськості щодо цього питання.

    Поділитись. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Антон Шевченко
    • LinkedIn

    Антон Шевченко відомий своєю відданістю підвищенню рівня інформаційної грамотності в галузі штучного інтелекту. Він прагне створювати вміст, який б допомагав користувачам сайту Top-AI не лише зрозуміти технічні аспекти, але й розглядати етичні та соціальні виклики, пов’язані із штучним інтелектом.

    Пов'язані публікації

    Антивірусні програми 2025: які дійсно працюють

    26 Листопада, 2025

    Конвертація GLB to OBJ: прості інструменти для дизайнерів

    23 Листопада, 2025

    Free 3D Models: де знайти безкоштовні 3D-моделі для дизайнерів

    22 Листопада, 2025

    Що робити, якщо зламали Telegram: покрокова інструкція

    20 Листопада, 2025
    Add A Comment

    Comments are closed.

    Вибір редакції

    Що таке Galaxy AI, що він може робити та як ним користуватися?

    11 Липня, 2024

    Антивірусні програми 2025: які дійсно працюють

    26 Листопада, 2025

    SearchGPT — нова пошукова система від OpenAI вже доступна сьогодні

    25 Липня, 2024

    Gamma — AI-платформа для створення презентацій нового покоління: інтелект, дизайн і швидкість у дії 🚀

    23 Жовтня, 2025
    Найкращі огляди

    Kimi AI 1.5 – безкоштовний китайський конкурент OpenAI GPT-4

    Огляд Vyond Go: генерація відео за допомогою AI

    Знайомтесь, оновлення GPT-4o з Canvas – must-have для контент-мейкерів та розробників

    Про Нас
    Про Нас

    ТОП AI — це місце, де реалізується майбутнє. Це найважливіший джерело інформації та ідей про Штучний інтелект, які надають сенс світу, що знаходиться в постійній трансформації. Top AI показує, як технології ШІ змінюють кожен аспект нашого життя. Прориви та інновації, які ми освітлюємо, ведуть до нового мислення, новим зв'язкам і новим відросткам. Ми приймаємо нові можливості партнерства прямо зараз.

    Email Us: [email protected]
    Contact: +380972778349

    Наші партнери

    Бренди та організації, що підтримують наш проєкт.

     

     

    Рейтинг онлайн казино Westnews.com.ua

    Зручна навігація
    • TOP AI
    • Маркетинг та ШІ
      • Контент
      • Копірайт
      • Оптимізація роботи
      • Події
    • Новини
    • Продукти та технології
    • Огляд сервісів ШІ
    • Крипто
    Top-AI
    Facebook X (Twitter) Instagram Pinterest LinkedIn
    • Головна
    • Про нас
    • Контакти
    • Наша команда
    • Політика Cookies
    • Політика конфіденційності
    • Словник з кібербезпеки
    Усі права захищені © top-ai.com.ua 2025

    Зоповніть поле та натисніть Enter для пошуку. Натисніть Esc, щоб скасувати.