Людство можуть знищити біозброєю? Хрещений батько ШІ дав новий тривожний прогноз

Уявіть світ, де машини перевершують людський інтелект у всіх сферах, приймають власні рішення і, можливо, навіть бачать людство як застарілий вид. Цей сценарій, який раніше був долею науково-фантастичних фільмів, тепер став предметом серйозних попереджень від провідних світових експертів.
Про що попереджає людство хрещений батько ШІ та чи може людство загинути від біологічної зброї, розповідає РБК-Україна з посиланням на Emerge.
Джеффрі Хінтон, якого називають "хрещеним батьком штучного інтелекту" за його піонерську роботу в галузі нейронних мереж, виступив із найсуворішим застереженням.
Він попереджає, що ШІ становить не лише загрозу робочим місцям, а й екзистенційний ризик для всього людства.
У новому інтерв'ю він окреслив похмуре бачення майбутнього, де надрозумні машини можуть стати некерованими та використовувати автономну зброю, кібератаки та навіть біологічну зброю для нашого знищення.
Загроза з двох сторінДжеффрі Хінтон, який ще у травні 2023 року покинув Google та Університет Торонто, аби вільно висловлюватися про небезпеки ШІ, підкреслює, що загроза має дві основні форми.
По-перше , це ризики, що виникають через неправильне використання людьми.
Сюди входять:
- Кібератаки. ШІ може бути використаний для створення надзвичайно складних і руйнівних кібератак.
- Поширення дезінформації: Системи ШІ вже здатні генерувати переконливий, але неправдивий контент, що може підірвати суспільства.
- Автономна зброя. "Зараз вони можуть створювати летальну автономну зброю, і я думаю, що всі великі оборонні відомства зайняті її виробництвом", - зазначив Хінтон. Навіть якщо така зброя не буде розумнішою за людей, вона все одно є "дуже неприємними, страшними істотами".
По-друге , і це, можливо, найбільш тривожно, це загрози, що виникають, коли системи штучного інтелекту стають повністю автономними та некерованими.
За словами Хінтона, якщо ШІ вирішить, що людство застаріло, "ми ніяк не зможемо запобігти його знищенню, навіть якщо воно цього захоче".
Він наводить шокуюче порівняння: "Якщо ви хочете знати, яке життя, коли ви не є верхівкою інтелекту, запитайте курку".
Військова гонка та корпоративні мотивиПопередження Хінтона звучать на тлі безпрецедентного сплеску військового застосування ШІ. Сполучені Штати є лідерами у фінансуванні та інтеграції цих технологій в оборонні операції.
Наприклад, у своєму бюджетному проєкті на 2025 рік Міністерство оборони США запросило 143 мільярди доларів на дослідження та розробки, з яких 1,8 мільярда доларів виділено спеціально на ШІ.
Компанії, такі як Palantir, отримують мільйонні контракти на розробку систем націлювання на базі ШІ для армії США, а Пентагон співпрацює зі Scale AI для запуску симулятора поля бою під назвою Thunderforge.
Хінтон порівнює нинішній момент із появою ядерної зброї, але з однією ключовою відмінністю:
"Атомна бомба була придатна лише для однієї речі, і було дуже очевидно, як вона працює. Зі штучним інтелектом вона придатна для багатьох, багатьох речей".
Це поєднання мотивів корпоративного прибутку та міжнародної конкуренції є головною причиною, чому розвиток штучного інтелекту не сповільниться, пояснює Хінтон.
Мотив прибутку часто спонукає компанії створювати контент, що "змусить їх (користувачів) клацнути", а це, своєю чергою, призводить до "речей, які стають дедалі більш екстремальними, підтверджуючи їхні існуючі упередження".
Найстрашніший сценарій - біологічна зброя, створена ШІНа запитання, як саме штучний інтелект може знищувати людей, Хінтон не цурався жахливих деталей. Він припустив, що надрозумний ШІ може розробити нові біологічні загрози для знищення людської раси.
"Очевидним способом було б створити небезпечний вірус - дуже заразний, дуже смертельний і дуже повільний - щоб усі його заразили, перш ніж усвідомлять", — сказав він.
Він додав, що якби суперінтелект захотів позбутися нас, він, ймовірно, "обрав би щось біологічне, що не вплине на нього".
Надія серед похмурих прогнозівПопри такі похмурі перспективи, він визнає, що ми не знаємо, чи можемо ми навчити штучний інтелект не бажати захоплювати владу або шкодити нам.
"Я не думаю, що ми можемо це зробити однозначно, тому, гадаю, це може бути безнадійно. Але я також думаю, що ми могли б це зробити, і було б певним божевіллям, якби люди вимерли, бо ми не хотіли б навіть спробувати", - сказав Хінтон.
Вас може зацікавити:
- Вчений попередив, що до 2300 року можуть зникнути мегаполіси, а кількість людей різко скоротиться
- З'явився тривожний прогноз про майбутнє людства, яке буде гірше за "ядерку"
- У NASA підтвердили пророцтво Стівена Гокінга про те, що Земля перетвориться на палаючу кулю
Останні новини
