Прихована загроза

Колонка Андрія Тужикова

Явища

Андрій Тужиков

У літературознавчих колах поширений міф про пророчу здатність письменників. У деяких текстах, або й цілих жанрах, письменники передчувають недобре. Наприклад Орвел в антиутопії «1984» передчув тоталітарне майбутнє деяких держав, а Хакслі – інформаційний шум та епоху постправди у «Прекрасному новому світі». На жаль, дослідники, науковці та політологи дарують цим ідеям наукове обгрунтування надто пізно. Від виникнення літературного жанру кіберпанку, і до перших заяв Ілона Макса про реальну небезпеку штучного інтелекту, пройшло біля тридцяти років. Про що ж попереджали нас кіберпанк-письменники у 80-х?

Спостерігаючи надшвидкий розвиток комп’ютерних технологій, вони, ще задовго до створення потужних нейромереж, передбачили появу нової сутності на планеті Земля. І ставлення цієї нової сутності до людства було переважно вороже. Цією сутністю (сюрприз!) був штучний інтелект. Він мав різноманітну форму – від безликого суперкомп’ютера (як у Вільяма Гібсона) до антропоморфних роботів (ще у Карела Чапека). Тепер DeepMind, Hanson Robotics i Boston Dynamics реалізовують це все у житті. Але що ж так налякало чутливих і тонкошкірих письменників, що вони, можливо підсвідомо, запрограмували самоздійснюване пророцтво? Очевидно, це був страх перед знищенням людства як виду. У 90-х це б нагадало про Термінатора та Матрицю, які щойно вийшли в прокат і уявляли майбутнє без перспектив на процвітання людства. Але у 2018-му, коли Ілон Макс, противник контролю і регулювання, міркує над створенням контролюючого органу, який би мав доступ до усіх розробок, які займаються штучним інтелектом, і міг би призупинити їх, якщо вони здадуться небезпечним, це вже викликає непідробну тривогу. Маск навіть порівнює штучний інтелект із ядерною зброєю. Ви можете уявити, щоб ядерну зброю розробляв хто і де заманеться? Ні! Бо на це є міжнародне право, контроль і санкції, або й військове втручання. Зі штучним інтелектом те саме. Ми гадки не маємо скільки проектів зараз існує і якого прогресу вони вже досягли. У процесі створення штучного інтелекту є багато задач. Дві з них – це, власне, створення штучного інтелекту, інша – створення штучного інтелекту, безпечного для людства. І якщо хтось раптом сплутає порядок вирішення цих задач, можуть бути непереливки.

Коли комп’ютери були завбільшки з кімнату, а програми писали, пробиваючи дірочки на перфокартах, у це було важко повірити. Та коли комп'ютер сам навчився грати у го (а у цій грі набагато більше комбінацій, ніж у шахах), а потім ще й виграв у світового чемпіона, те, про що я говорив вище, вже не здається науковою фантастикою. Чому так важливий контроль? Кілька місяців тому інженери з Facebook, створили чат-ботів, і змусили їх переписуватися один з одним. А через деякий час ці чат-боти почали обмінюватися шифрованими повідомленнями, які були незрозумілі самим інженерам. Вони з переляку одразу вимкнули їх, але уявіть, якщо одного разу вимкнути їх не вдасться. Якщо вони втечуть в Інтернет, за кілька хвилин вивчуть історію нашого виду, і вирішать, що для збереження гармонії на планеті, людство потрібно знищити. Брати (нині вже сестри) Вачовскі, вставили ці роздуми у промову агента Сміта з Матриці. Зламати шифри ядерних кодів для ШІ не буде проблемою, отримати доступ до ядерних установок, тим паче. Всі ці програми писали люди, а значить є багато дір у безпеці. Для штучного інтелекту, який отримає доступ до безмежних (майже) обчислювальних ресурсів через Інтернет, проаналізувати код та зламати захист – питання кількох мікросекунд. Описувати подальший сценарій мені лячно.

Тому, коли робот Sophie пожартувала про знищення людства, інженери зі штучного інтелекту не засміялися. Загроза виникнення неконтрольваного штучного інтелекту існує. Якщо ми прогавимо цей момент, то повернути все назад буде дуже важко. Якщо люди захочуть знищити його, для свого захисту штучний інтелект може найняти інших людей, заплативши їм біткоїнами, наприклад. А всі розетки у світі не зламати.

Я навіть не кажу про екзистенційну кризу, яка чекає людство, адже самі поняття інтелекту, свідомості, волі потрібно буде переосмислити. Це не просто екзистенційна криза, яка існує герметично у філософських колах, це криза, яка загрожує існуванню людства, у тому вигляді, у якому воно зараз існує. Зараз ми активно використовуємо комп’ютери: смартфони, гаджети, вбудовані системи, наукові розробки, зброю. Але історія не позбавлена іронії, і іноді експлуататори і експлуатовані мінялися місцями. Схрестимо пальці, щоб не цього разу.  

Джерело фото

Схожі публікації