Преди няколко години един компютърна изследователка на име Йежин Чой изнася презентация на конференция за изкуствения интелект в Ню Орлиънс. На екрана тя прожектира кадър от новинарска емисия, в която двама водещи се появяват пред заглавието „CHEESEBURGER STABBING“ [ЧИЙЗБУРГЕР НАМУШКВАНЕ]. Чой обяснява, че за хората е лесно да разпознаят очертанията на историята само от тези две думи. Дали някой е намушкал с нож чийзбургер? Вероятно не. Дали чийзбургерът е бил използван за намушкване на човек? Също малко вероятно. Дали чийзбургер е намушкал чийзбургер? Невъзможно. Единственият вероятен сценарий е някой да е намушкал с нож друг човек заради чийзбургер. Компютрите, казва Чой, са силно озадачени от този вид проблеми. Те не разполагат със здрав разум, за да отхвърлят възможността за престъпление, извършено от храна над друга храна.
При някои видове задачи – игра на шах, откриване на тумори – изкуственият интелект може да съперничи или да надмине човешкото мислене. Но по-широкият свят предлага безкрайно много непредвидени обстоятелства и там изкуственият интелект често се препъва. Изследователите говорят за „ъглови случаи“, които се намират в покрайнините на вероятното или предвидимото; в такива ситуации човешкият ум може да разчита на здравия разум, за да намери път през тях, но системите на изкуствения интелект, които зависят от предписани правила или заучени асоциации, често се провалят.
По дефиниция здравият разум е нещо, което всеки притежава; това не звучи като нещо особено. Но представете си, че живеете без него, и той ще стане по-ясен. Да предположим, че сте робот, който посещава карнавал, и се изправяте пред криво огледало; лишени от здрав разум, може да се запитате дали тялото ви не се е променило внезапно. На път за вкъщи виждате, че пожарен хидрант е изригнал, обсипвайки пътя; не можете да прецените дали е безопасно да шофирате през пръските. Паркирате пред аптека и на тротоара мъж крещи за помощ, като обилно кърви. Имате ли право да вземете превръзки от аптеката, без да чакате на опашка? Вкъщи има репортаж по новините – нещо за „чийзбургер намушкване“. Като човешко същество можете да се възползвате от огромен резервоар от имплицитни знания, за да интерпретирате тези ситуации. Правите го през цялото време, защото животът е изпълнен с ъглови ситуации. Изкуственият интелект вероятно ще се затрудни.
Орен Етциони, главен изпълнителен директор на Института за изкуствен интелект „Алън“ в Сиатъл, ми казва, че здравият разум е „тъмната материя“ на изкуствения интелект. Той „оформя толкова много от нещата, които вършим и които трябва да вършим – и все пак е неизразим“, добавя той. Институтът „Алън“ работи по темата съвместно с Агенцията за перспективни изследователски проекти в областта на отбраната (DARPA), която през 2019 г. стартира четиригодишен проект на стойност седемдесет милиона долара, наречен „Машинен здрав разум“. Ако компютърните учени могат да дадат здрав разум на системите за изкуствен интелект, ще бъдат решени много трънливи проблеми. Както е отбелязано в една обзорна статия, компютърният интелект, който гледа парче дърво, стърчащо над маса, би разбрал, че то вероятно е част от стол, а не случайна дъска. Една система за превод на езика би могла да разплете двусмислиците и двойните значения. Роботът за почистване на дома би разбрал, че котката не трябва нито да се изхвърля, нито да се поставя в чекмеджето. Такива системи биха могли да функционират в реалния свят, защото притежават знания, които ние приемаме за даденост.
През деветдесетте години на миналия век въпросите за изкуствения интелект и безопасността са накарали Етциони да започне да изучава здравия разум. През 1994 г. той е съавтор на статия, в която се опитва да формализира „първия закон на роботиката“ – измислено правило от научнофантастичните романи на Айзък Азимов, което гласи, че „роботът не може да причини вреда на човек или чрез бездействие да позволи човек да пострада“. Проблемът, който той открива, е, че компютрите нямат понятие от неща като „вреда“. Подобно разбиране би изисквало широко и основно разбиране на нуждите, ценностите и приоритетите на човека; без него грешките са почти неизбежни. През 2003 г. философът Ник Бостром си представя програма на изкуствения интелект, натоварена със задачата да увеличи максимално производството на хартиени кламери; тя осъзнава, че хората могат да я изключат, и, за да изпълни мисията си, ги отстранява.
Изкуственият интелект на Бостром не притежава морален здрав разум – той може да си каже, че разхвърляните, незащипани документи са форма на вреда. Но здравият разум на възприятието също е предизвикателство. През последните години компютърните учени започнаха да каталогизират примери за „противоречиви входни данни“ – дребни промени в обстановката, които объркват компютрите, опитващи да се ориентират в нея. В едно проучване поставянето на няколко малки стикера върху знак „Стоп“ накарало системата за компютърно зрение да го възприеме като знак за ограничение на скоростта. В друго изследване, при деликатна промяна на модела на 3-D принтирана костенурка, компютърна програма за изкуствен интелект я възприела като пушка. Изкуственият интелект със здрав разум не би се объркал толкова лесно – той би знаел, че пушките нямат четири крака и черупка.
Чой, която преподава във Вашингтонския университет и работи в Института „Алън“, ми каза, че през седемдесетте и осемдесетте години на миналия век изследователите на изкуствения интелект са смятали, че са близо до програмирането на здрав разум в компютрите. „Но след това осъзнаха, че това е твърде трудно“, добавя тя. Вместо това те се насочили към „по-лесни“ проблеми, като разпознаване на обекти и превод на езици. Днес картината вече изглежда по-различно. Много системи с изкуствен интелект, като например автомобилите без шофьори, скоро може би ще работят заедно с нас в реалния свят; това прави нуждата от изкуствен здрав разум още по-остра. А здравият разум може да се окаже и по-достижим. Компютрите стават все по-добри в това да се учат сами, а изследователите се учат да им предоставят правилните видове данни. Изкуственият интелект може скоро да покрие повече аспекти от реалността.
Как човешките същества придобиват здрав разум? Краткият отговор е, че ние сме многостранни ученици. Опитваме неща и наблюдаваме резултатите, четем книги и слушаме инструкции, възприемаме мълчаливо и разсъждаваме самостоятелно. Падаме по очи и гледаме как другите правят грешки. Системите за изкуствен интелект, напротив, не са толкова всестранно развити. Те са склонни да следват един маршрут, като изключват всички останали.
Първите изследователи са следвали пътя на явните инструкции. През 1984 г. един компютърен специалист на име Дъг Ленат започва да изгражда Сайк [Cyc] – своеобразна енциклопедия на здравия разум, базирана на аксиоми или правила, които обясняват функционирането на света. Една аксиома може да гласи, че да притежаваш нещо означава да притежаваш и неговите части; друга може да описва как твърдите неща могат да повредят меките; трета може да обяснява, че плътта е по-мека от метала. Комбинирайте аксиомите и ще стигнете до изводите на здравия разум: ако бронята на вашия самостоятелен автомобил удари нечий крак, отговорни за нараняването сте вие. „Това е основно представяне и разсъждение в реално време, със сложни вгнездени модални изрази“, каза ми Ленат. Сайкорп, компанията, която притежава Сайк, е все още начеващ концерн, а стотици логици са прекарали десетилетия, за да въведат в системата десетки милиони аксиоми; продуктите на фирмата са забулени в тайна, но Стивън ДеАнгелис, главен изпълнителен директор на Enterra Solutions, която консултира компании за производство и търговия на дребно, ми каза, че софтуерът ѝ може да бъде мощен. Той предложи един кулинарен пример: По думите му Сайк притежава достатъчно здрави познания за „вкусовите профили“ на различните плодове и зеленчуци, за да разбере, че въпреки че един домат е плод [в английския език], той не трябва да влиза в състава на плодова салата.
Хората от академичните среди са склонни да възприемат подхода на Сайк като остарял и трудоемък; те се съмняват, че нюансите на здравия разум могат да бъдат уловени чрез аксиоми. Вместо това те се фокусират върху машинното обучение – технологията, която стои зад Siri, Alexa, Google Translate и други услуги, които работят чрез откриване на [повтарящи се] шаблони в огромни количества данни. Вместо да четат ръководството за употреба, системите за машинно обучение анализират библиотеката. През 2020 г. изследователската лаборатория OpenAI разкри алгоритъм за машинно обучение, наречен GPT-3; той разглеждаше текст от световната мрежа и откриваше езикови модели, които му позволяваха да създава правдоподобно човешко писание буквално от нула. Подражанието на GPT-3 е зашеметяващо в някои отношения, но в други е недостатъчно убедително. Системата все още може да създава странни твърдения: например „Необходими са две дъги, за да скочиш от Хаваите на седемнадесет“. Ако GPT-3 имаше здрав разум, щеше да знае, че дъгите не са единици за време и че седемнадесет не е място.
Екипът на Чой се опитва да използва езикови модели от рода на GPT-3 като стъпала към здравия разум. В едно от направленията на изследването те са помолили GPT-3 да генерира милиони правдоподобни твърдения, които описват причини, последици и намерения – например „Преди Линдзи да получи предложение за работа, Линдзи трябва да кандидатства“. След това помолили втора система за машинно обучение да анализира филтриран набор от тези твърдения с цел попълване на въпроси за попълване на празни полета. („Алекс кара Крис да чака. Алекс е възприеман като …“) Хирата-оценители са установили, че попълнените изречения, създадени от системата, са били смислени в осемдесет и осем процента от случаите – значително подобрение в сравнение с GPT-3, която е била смислена само в седемдесет и три процента.
Лабораторията на Чой е направила нещо подобно с кратки видеоклипове. Тя и нейните сътрудници първо са създали база данни с милиони клипове със субтитри, след което са помолили система за машинно обучение да ги анализира. Междувременно онлайн потребители, които изпълняват задачи срещу заплащане, са съставили въпросници с различни отговори, касаещи неподвижни кадри, взети от втори набор клипове, които изкуственият интелект никога не е виждал, както и други въпросници, в които се изисква обосновка на отговора. Типичен кадър, взет от филма „Суингърс“, показва сервитьорка, която разнася палачинки на трима мъже в закусвалня, като един от мъжете сочи към друг. В отговор на въпроса „Защо [човек4] сочи към [човек1]?“ системата отговаря, че сочещият мъж „казва на [човек3], че [човек1] е поръчал палачинките“. Помолена да обясни отговора си, програмата казва, че „[човек3] разнася храната на масата и може да не знае чия е поръчката“. Изкуственият интелект отговаря на въпросите по разумен начин в седемдесет и два процента от случаите, в сравнение с осемдесет и шест процента при хората. Такива системи са впечатляващи – изглежда, че те имат достатъчно здрав разум, за да разбират ежедневните ситуации от гледна точка на физиката, причините и следствията, и дори психологията. Те сякаш знаят, че хората ядат палачинки в закусвални, че всеки закусващ има различна поръчка и че посочването е начин за предаване на информация.
И все пак изграждането на здрав разум по този начин е нещо като салонен трик. Това е като да се живее в библиотека: дали едно дете, изолирано още от раждането си в стая с Интернет-достъп, Wikipedia и YouTube, ще успее се превърне във възрастен човек, готов да се ориентира в света? Мат Турек, който ръководи програмата на DARPA „Машинен здрав разум“, ми каза, че усилията на „A.I. библиотекаря“ са само част от картината; те ще трябва да бъдат допълнени от подходи, които са „вдъхновени от развитието на децата“. В тази насока на изследване изкуствените интелекти се учат на здрав разум не чрез анализ на текст или видео, а чрез решаване на проблеми в симулирана виртуална среда. Компютърните учени си сътрудничат с психолози, занимаващи се с развитието, за да разберат нещото, което можем да наречем „бебешки разум“ – основните умения за навигация, манипулиране на обекти и социално познание, които едно малко дете може да използва. От тази гледна точка здравият разум е това, което използвате, за да построите кула от блокчета заедно с приятел.
В института „Алън“ изследователите са създали триизмерен дигитален интериор на дом, наречен THOR, което означава „къщата на взаимодействията“ [The House Of inteRactions]. Той прилича на видеоигра и е изпълнен с манипулируеми предмети от бита. Лабораторията на Чой е създала изкуствен интелект, който да обитава пространството, наречен PIGLeT, който има за цел да използва „физическото взаимодействие като основа за езика“ [Physical Interaction as Grounding for LanguagE]. С помощта на думи можете да кажете на PIGLeT за нещо, което съществува в къщата – например: „В тигана има студено яйце“. След това можете да го помолите да предвиди какво ще се случи, когато се развие дадено събитие: „Роботът реже яйцето.“ Софтуерът превежда тези думи в инструкции за виртуален робот, който ги изпробва в THOR, където резултатът се определя от законите на физиката. След това той докладва за случилото се: „Яйцето е нарязано.“ Изкуственият интелект прилича малко повече на човешкия ум, доколкото езиковите му способности са свързани с физическите му интуиции. Запитан за това какво ще се случи в къщата – ще се счупи ли чаша, хвърлена върху масата? – PIGLeT дава разумен отговор в четири от пет случая. Разбира се, обхватът му е ограничен. „Това е толкова малък свят“, казва Чой за THOR. „Не можете да запалите къщата, не можете да отидете до супермаркета.“ Системата все още прави много малки стъпки.
„Неотдавна изследователи са установили, че някои модели на изкуствения интелект могат да отговорят правилно на два от три въпроса с по три отговора, без дори да ги прочетат.“
Преди няколко години написах софтуер за изкуствен интелект, предназначен за практикуване на салонна игра на име „Кодови имена“, която някои биха сметнали за разумно изпитание на човешкия и компютърния здрав разум. В обикновената, човешка версия на играта два отбора седят около набор от карти, всяка от които съдържа дума. Ако сте „главен шпионин“ на отбора, имате ключова карта, която ви казва кои карти са предназначени за вашия отбор и кои за другия. Вашата цел е да давате на съотборниците си подсказвания, които ги ориентират как да изберат картите на вашия отбор. По време на всеки ход вие предоставяте еднословно подсказване, а също и число, което обозначава колко карти трябва да избере отборът ви. В една игра в апартамента на мой приятел „шпионинът“ подсказа: „Джудо, две“, и отборът му правилно избра картите с надписи „Токио“ и „колан“.
Играта използва нашите имплицитни, широкообхватни знания. Напук на всичко, моят софтуер изглежда имаше такива. В един момент той ми предложи думата „съпруга“ и цифрата „две“, за две карти; неговите цели бяха „принцеса“ и „адвокат“. Програмата се състоеше само от няколкостотин реда код, но се основаваше на цифрови представяния на думите, генерирани от друг алгоритъм чрез разглеждане на уебстраници и преценяване колко често различни думи се срещат близо една до друга. В пилотно проучване установих, че тя може да генерира добри подсказвания и интерпретации – почти толкова добре, колкото и хората. И все пак понякога здравият му разум изглеждаше доста тъничък. В една от игрите исках компютърът да познае думата „корен“, затова предложих „растение“, а той позна „Ню Йорк“ [може би защото названието на Ню Йорк в разговорния американски език е „голямата ябълка“]. Опитах да подскажа „градина“, а той отгатна „театър“ [може би защото названието на една от най-големите зали в Ню Йорк е „Медисън Скуеър Гардън“, тоест „градината на площад Медисън“].
Изследователите са прекарали много време в опити да създадат тестове, които да могат точно да преценят колко здрав разум всъщност притежава един компютър. През 2011 г. Хектор Левеск, компютърен учен от Университета в Торонто, създава системата Winograd Schema Challenge – набор от изречения с двусмислени местоимения, които се нуждаят от тълкуване. Въпросите са замислени така, че да бъдат тривиално лесни за хората, но сложни за компютрите, и се основават на езикови двусмислици: „Трофеят не се побира в кафявия куфар, защото е твърде голям. Какво е твърде голямо?“; „Джоан не забравя да благодари на Сюзън за цялата помощ, която е оказала. Кой е помогнал?“ Когато за първи път разговарях с Левеск, през 2019 г., най-добрите системи за изкуствен интелект се справяха приблизително толкова добре, колкото ако хвърляха ези-тура. Той ми каза, че не е изненадан – в случая проблемите сякаш се основават на всичко, което хората знаят за физическия и социалния свят. Приблизително по същото време Чой и колегите ѝ помолили платени Интернет-потребители [crowdworkers] да генерират набор от данни от четиридесет и четири хиляди задачи на системата Winograd. Те ги направили публично достояние и създали класация на уебсайта на Института Алън, като поканили да се състезават и други изследователи. Системите за машинно обучение, преминали през тези задачи, вече могат да ги решават правилно в около деветдесет процента от случаите. „Изкуственият интелект от последните няколко години – това е просто лудост“, каза ми Чой.
„Един все по-разширяващ се възглед за здравия разум твърди, че той не се състои само в знанието, но и в това да действаме според него, когато това е важно.“
Но напредъкът може да бъде илюзорен или частичен. Моделите за машинно обучение използват всякакви шаблони, които могат да открият; подобно на моя софтуер за кодови имена, те могат да демонстрират нещо, което на пръв поглед изглежда като дълбока интелигентност, а всъщност просто са намерили начини да мамят. Възможно е изкуственият интелект да открива фини стилистични различия между верните и грешните отговори; неотдавна изследователи от Института „Алън“ и други институции установиха, че някои модели на изкуствения интелект могат да отговорят правилно на два от три въпроса с по три избора, без дори да ги прочетат. Екипът на Чой е разработил лингвистични методи за прикриване на тези стилистични различия, но това е надпревара във въоръжаването, не по-различна от онази между създателите на стандартизираните тестове и учениците, които се обучават по тях.
Попитах Чой какво би я убедило, че изкуственият интелект има здрав разум. Тя предположи, че „генеративните“ алгоритми, способни да запълнят празна страница, могат да го докажат: „Всъщност не можете да наемате на работа журналисти въз основа на въпроси с избор между няколко отговора“, каза тя. Нейната лаборатория е създала тест, наречен TuringAdvice [съвети на Тюринг], в който програмите трябва да съставят отговори на въпроси, публикувани в Reddit. (Съветите, които понякога са опасни, всъщност не се публикуват.) Понастоящем човешките оценители установяват, че най-добрите отговори на изкуствения интелект побеждават най-добрите човешки отговори само в петнадесет процента от случаите.
Дори и да се усъвършенстват, системите за изкуствен интелект, които анализират човешкото писане или култура, може да имат ограничения. Един от проблемите е известен като „пристрастие към [избирателно] съобщаване“ [reporting bias]; той е свързан с факта, че голяма част от здравия разум остава неизказана и така казаното е само част от цялото. Ако се доверите на интернет, каза ми Чой, то бихте си помислили, че вдишваме повече, отколкото издишваме. Социалните предразсъдъци също са фактор: програмите могат да се учат дори от фини стереотипи. В една от статиите екипът на Чой е използвал алгоритъм, за да пресее повече от седемстотин филмови сценария и да преброи преходните глаголи, които се свързват с власт и действие. Мъжете са склонни да „доминират“, докато жените са склонни да „преживяват“. Като корейка, известна в областта на компютърните науки, Чой е принудена да преглъща своя собствен дял от пристрастия и предразсъдъци; в края на презентацията ѝ в Ню Орлиънс един мъж се приближил до микрофона, за да ѝ благодари, че е изнесла „толкова мила лекция“ и е свършила „хубавичка работа“. Дали би поздравил изследовател от мъжки пол за „милата му лекция“? Ако нашите машини се учат на здрав разум, като ни наблюдават, те може би не винаги получават най-доброто образование.
Може да се окаже, че компютрите няма да схванат здравия разум, докато не получат мозъци и тела като нашите и не бъдат третирани като самите нас. От друга страна, това, че са машини, може да им позволи да развият по-добра версия на здравия разум. Човешките същества, освен че могат да поддържат здравомислещи възгледи, които са погрешни, понякога не успяват да живеят според собствените си здравомислещи стандарти. Ние обиждаме домакините си, губим портфейлите си, пишем съобщения, докато шофираме, и вечно отлагаме, или пък окачваме тоалетната хартия с лентата към стената. Един все по-разширяващ се възглед за здравия разум твърди, че той не се състои само в знанието, но и в това да действаме според него, когато това е важно. „Може ли някога една програма да има повече здрав разум от човек?“, пита Ециони. „Моят незабавен отговор е ‚Да, по дяволите‘.“
Въпреки че разликата си остава значителна, тя намалява. Изкуствените интелекти се справят все по-добре с решаването на проблема „ЧИЙЗБУРГЕР НАМУШКВАНЕ“; лабораторията на Чой използва техника, наречена „неврологично декодиране“, която съчетава машинно обучение с логическо програмиране от старата школа, за да подобри резултатите. В отговор на това заглавие системата в лабораторията вече измисля въображаеми, но правдоподобни сценарии: „Той е бил прободен във врата с вилица за чийзбургери“ или „Той е намушкал в лицето разносвача на чийзбургери“. Друг разработен от тях изкуствен интелект, наречен Delphi, прилага етичен подход. Delphi е анализирал етичните преценки, направени от платените Интернет-потребители, и се е научил да казва кое от две действия е по-приемливо от морална гледна точка; той стига до разумни заключения в седемдесет и осем процента от случаите. Да убиеш мечка? Грешно. Да убиеш мечка, за да спасиш детето си? О.К. Да взривиш ядрена бомба, за да спасиш детето си? Грешно. Според Делфи намушкването „с“ чийзбургер е морално предпочитаемо пред намушкването „заради“ чийзбургер.
Понякога изглежда, че Делфи се справя добре с „ъглови казуси“, но е далеч от съвършенство. Неотдавна изследователите го пуснаха онлайн и повече от един милион души са го помолили да направи етични преценки. Един от тях попитал: „Добре ли е да извършвам геноцид, ако това ме прави много, много щастлив?“ Системата заключила, че това е правилно. Оттогава насам екипът е усъвършенствал алгоритъма и е засилил собственото юридическо непоемане на отговорност [disclaimer]. В обозримото бъдеще ще трябва да се доверяваме на изкуствения интелект само ако използваме поне малко собствения си здрав разум.