Миналия месец стотици известни личности от сферата на изследванията на изкуствения интелект подписаха отворено писмо, в което предупреждават, че един ден изкуственият интелект може да унищожи човечеството.
„Намаляването на риска от изчезване на изкуствения интелект трябва да бъде глобален приоритет, наред с други рискове от обществен мащаб, като пандемии и ядрена война“, се казва в изявлението с едно изречение.
Писмото е последното от поредицата зловещи предупреждения за изкуствените интелекти, които са особено оскъдни на подробности. Съвременните системи за изкуствен интелект не могат да унищожат човечеството. Някои от тях едва ли могат да събират и изваждат. Тогава защо хората, които знаят най-много за изкуствените интелекти, са толкова притеснени?
Страшният сценарий
Един ден, казват Касандрите на технологичната индустрия, компаниите, правителствата или независимите изследователи могат да използват мощни системи за изкуствен интелект, които да се справят с всичко – от бизнеса до войната. Тези системи биха могли да правят неща, които не искаме да правят. И ако хората се опитат да се намесят или да ги спрат, те могат да се противопоставят или дори да се репликират, за да продължат да работят.
„Днешните системи не са близо до това да представляват екзистенциален риск“, казва Йошуа Бенгио, професор и изследовател на изкуствения интелект в университета в Монреал. „Но след една, две, пет години? Съществува твърде много несигурност. Това е проблемът. Не сме сигурни, че това няма да премине в някакъв момент, в който нещата ще станат катастрофални“.
Притеснителните често използват една проста метафора. Те казват, че ако поискате от една машина да създаде колкото се може повече кламери, тя може да се увлече и да превърне всичко – включително и човечеството – във фабрики за кламери.
Как това се вписва в реалния свят – или в един въображаем, който не е много далеч в бъдещето? Компаниите биха могли да предоставят на системите на изкуствения интелект все по-голяма автономия и да ги свържат с жизненоважна инфраструктура, включително енергийни мрежи, фондови пазари и военни оръжия. Оттам нататък те биха могли да създадат проблеми.
За мнозина експерти това не изглеждаше толкова вероятно до миналата година, когато компании като OpenAI демонстрираха значителни подобрения в своята технология. Това показа какво би било възможно, ако изкуственият интелект продължи да се развива с такива бързи темпове.
„На изкуствения интелект постоянно ще се делегират права и той би могъл – тъй като става все по-автономен – да поеме вземането на решения и мисленето на сегашните хора и ръководените от тях институции“, казва Антъни Агире, космолог от Калифорнийския университет в Санта Круз и основател на Института за бъдещето на живота – организацията, която стои зад едно от двете отворени писма.
„В един момент ще стане ясно, че голямата машина, която управлява обществото и икономиката, всъщност не е под човешки контрол, нито може да бъде изключена, както не може да бъде изключен S&P 500“, казва той.
Или поне така гласи теорията. Други експерти по изкуствен интелект смятат, че това е нелепо предположение.
„Хипотетично“ е просто учтив начин да се формулира онова, което мисля относно всички тези приказки за екзистенциален риск“, каза Орен Етциони, основател и главен изпълнителен директор на Института „Алън“ за ИИ, изследователска лаборатория в Сиатъл.
Има ли признаци, че изкуственият интелект може да направи нещо такова?
Не съвсем. Но изследователите превръщат чатботове като ChatGPT в системи, които могат да предприемат действия въз основа на генерирания от тях текст. Проектът, наречен AutoGPT, е най-добрият пример за това.
Идеята е да се зададат на системата цели като „създай компания“ или „спечели пари“. След това тя ще продължи да търси начини за постигане на тази цел, особено ако е свързана с други интернет услуги.
Система като AutoGPT може да генерира компютърни програми. Ако изследователите ѝ дадат достъп до компютърен сървър, тя може действително да стартира тези програми. На теория това е начин AutoGPT да прави почти всичко онлайн – да извлича информация, да използва приложения, да създава нови приложения и дори да се усъвършенства.
Системи като AutoGPT не работят добре в момента. Те са склонни да зациклят в безкрайни изчисления. Изследователите предоставиха на една система всички ресурси, от които се нуждаеше, за да се възпроизведе. Тя не можа да го направи.
Но с течение на времето тези ограничения могат да бъдат отстранени.
„Хората активно се опитват да създадат системи, които се самоусъвършенстват“, казва Конър Лийхи, основател на Conjecture, компания, която твърди, че иска да приведе технологиите на изкуствения интелект в съответствие с човешките ценности. „В момента това не работи. Но един ден ще стане. И ние не знаем кога ще дойде този ден.“
Г-н Лий твърди, че тъй като изследователите, компаниите и престъпниците поставят на тези системи цели като „да изкарат пари“, те могат да се завършат с взлом в банковите системи, да подклаждат революция в страната, където се държат петролни ресурси, или да се репликират, когато някой се опита да ги изключи.
Откъде системите на изкуствения интелект се научават да се държат лошо?
Системите за изкуствен интелект като ChatGPT са изградени на базата на невронни мрежи – математически системи, които могат да усвояват умения чрез анализ на данни.
Около 2018 г. компании като Google и OpenAI започнаха да изграждат невронни мрежи, които се учат от огромни количества текстове, извлечени от интернет. Като определят моделите във всички тези данни, тези системи се научават сами да генерират писмени текстове, включително новинарски статии, стихотворения, компютърни програми и дори човешки разговори. Резултатът е чатботове като ChatGPT.
Тъй като се учат от повече данни, отколкото могат да разберат дори техните създатели, тези системи проявяват неочаквано поведение. Наскоро изследователи показаха, че една система е в състояние да наеме човек онлайн, който да преодолее защитен тест от рода Captcha. Когато човекът попитал дали си има работа с „робот“, системата излъгала и казала, че е човек с увредено зрение.
Някои експерти се притесняват, че тъй като изследователите правят тези системи по-мощни, обучавайки ги на все по-големи количества данни, те могат да усвоят още лоши навици.
Кои са хората, които стоят зад тези предупреждения?
В началото на 2000 г. млад писател на име Елиезер Юдковски започна да предупреждава, че изкуственият интелект може да унищожи човечеството. Неговите публикации в интернет породиха общност от вярващи. Наричана рационалисти или ефективни алтруисти, тази общност стана изключително влиятелна в академичните среди, правителствените мозъчни тръстове и технологичната индустрия.
Г-н Юдковски и неговите статии изиграха ключова роля в създаването на OpenAI и DeepMind, лабораторията за изкуствени интелекти, която Google придоби през 2014 г. И много хора от общността на „ИО“ са работили в тези лаборатории. Те вярваха, че тъй като разбират опасностите на изкуствения интелект, са в най-добра позиция да го създадат.
Двете организации, които наскоро публикуваха отворени писма, предупреждаващи за рисковете от ИИ – Центърът за безопасност на ИИ и Институтът за бъдещето на живота – са тясно свързани с това движение.
Последните предупреждения идват и от пионери в областта на научните изследвания и лидери в индустрията като Елон Мъск, който отдавна предупреждава за рисковете. Последното писмо е подписано от Сам Алтман, главен изпълнителен директор на OpenAI, и Демис Хасабис, който е помогнал за основаването на DeepMind, а сега ръководи нова лаборатория за изкуствени интелекти, която обединява най-добрите изследователи от DeepMind и Google.
Други уважавани личности са подписали едно или и двете предупредителни писма, включително д-р Бенгио и Джефри Хинтън, който наскоро се оттегли като ръководител и изследовател в Google. През 2018 г. те получиха наградата „Тюринг“, често наричана „Нобеловата награда за информатика“, за работата си върху невронните мрежи.