На тлі тривог щодо швидкого прогресу штучного інтелекту (ШІ) у 2023 році знову спливло старе попередження фізика Стівена Хокінга.
Претензія
У 2014 році фізик Стівен Хокінг попередив, що розвиток штучного інтелекту (ШІ) може означати «кінець людської раси».
![](https://top-ai.com.ua/wp-content/uploads/2024/01/rating-correctly-attributed-png-400_400-removebg-preview-1-1002x1024.png)
Правильне присвоєння
Цей рейтинг вказує на те, що процитований матеріал ( мовлення чи текст) було правильно приписано особі, яка його висловила або написала.
Дізнайтеся більше про нашу рейтингову систему тут.
1 травня 2023 року газета New York Post опублікувала матеріал про те, що британський фізик-теоретик Стівен Хокінг попередив, що розвиток штучного інтелекту (ШІ) може означати «кінець людської раси».
Гокінг, який помер у 2018 році, дійсно сказав про це в інтерв’ю BBC у 2014 році.
“Розвиток повного штучного інтелекту може означати кінець людської раси”, – сказав Гокінг під час інтерв’ю. «Як тільки люди розвинуть штучний інтелект, він сам почне розвиватися і перепроектувати себе зі зростаючою швидкістю».
В іншій статті CNBC у 2017 році було передано подібне попередження фізика щодо ШІ. Про це йдеться у виступі Хокінга на технологічній конференції Web Summit у Лісабоні, Португалія, повідомляє CNBC. Як повідомляється, Гокінг сказав:
Якщо ми не навчимося готуватися до потенційних ризиків і уникати їх, ШІ може стати найгіршою подією в історії нашої цивілізації. Воно несе в собі небезпеки, такі як потужна автономна зброя або нові способи для небагатьох пригнічувати багатьох. Це може завдати серйозної шкоди нашій економіці.
У 2023 році такі попередження стали більш поширеними. У березні технічні лідери, науковці та підприємці попереджали про небезпеку, яку несуть для людства витвори ШІ, такі як ChatGPT.
«Системи штучного інтелекту з конкурентним інтелектом людини можуть становити серйозні ризики для суспільства та людства, як показали численні дослідження та визнано провідними лабораторіями ШІ», — написали вони у відкритому листі , опублікованому некомерційною організацією Future of Life Institute. На момент написання цього листа на початку травня 2023 року лист зібрав понад 27 500 підписів. Серед підписантів були генеральний директор SpaceX, Tesla та Twitter Ілон Маск, співзасновник Apple Стів Возняк і співзасновник Pinterest Еван Шарп.
Крім того, Snopes та інші організації, що перевіряють факти, відзначили різке зростання кількості дезінформації , яка поширюється в соціальних мережах через контент, створений ШІ, у 2022 та 2023 роках.
Потім, 2 травня, давній дослідник Google Джеффрі Хінтон залишив технологічного гіганта, щоб бити тривогу щодо продуктів ШІ. Хінтон, відомий як «Хрещений батько штучного інтелекту», сказав MIT Technology Review , що такі чат-боти, як GPT-4 – що OpenAI, лабораторія ШІ – «на шляху до того, щоб бути набагато розумнішими, ніж він думав».
З огляду на те, що Хокінг дійсно був задокументований як попередження про потенціал штучного інтелекту «означати кінець людської раси», ми оцінюємо цю цитату як правильно приписану йому.