Бюлетин „Либерален преглед в неделя“

Pin It

 

2023 11 OpenAI

 

Въздухът е изпълнен с почти бийтълманиакална енергия, когато звездата и антуражът му се качват в чакащ микробус Mercedes. Те току-що са се измъкнали от едно събитие и се отправят към друго, после към още едно, където ги очаква бясна тълпа. Докато се движат по улиците на Лондон – на кратка дистанция от Холборн до Блумсбъри – те сякаш сърфират в един от моментите преди и след цивилизацията. Историческата сила, която се олицетворява в този автомобил, е привлякла вниманието на целия свят. Всеки иска да получи частица от нея – от учениците, които са чакали на опашка, до министър-председателя.

Вътре в луксозния ван, похапвайки салата, се намират спретнатият 38-годишен предприемач Сам Олтман, съосновател на OpenAI; пиарка; специалист по сигурността; и аз. Олтман изглежда малко нещастен в синия костюм и розова риза без вратовръзка, избрани за сесиите в Лондон, които се провеждат в рамките на едномесечна глобална обиколка през 25 града на шест континента. Докато поглъща зеленината си – днес няма време за обилен обяд – той размишлява върху срещата си от предишната вечер с френския президент Еманюел Макрон. Доста добър човек! И много се интересува от изкуствения интелект.

Както и министър-председателят на Полша. А също и министър-председателят на Испания.

Пътувайки с Олтман, почти чувам звънливия, двусмислен акорд, с който започва A Hard Day’s Night – един вид въведение в бъдещето. През ноември миналата година, когато OpenAI пусна своя чудовищен хит ChatGPT, той предизвика технологична експлозия, каквато не е имало, откакто в живота ни навлезе Интернет. Изведнъж тестът на Тюринг остана в историята, търсачките станаха застрашен вид, а на колежанското есе не можеше да се вярва никога повече. Нито една работа не беше в безопасност. Нито един научен проблем не беше неизменен.

Олтман не е правил изследванията, не е обучавал невронната мрежа и не е програмирал интерфейса на ChatGPT, както и неговия по-рано създаден брат GPT-4. Но в качеството си на главен изпълнителен директор – и като мечтател и изпълнител, който е нещо като по-млада версия на съоснователя си Елон Мъск (и без неговия багаж) – една след друга новинарски статии използват снимката му като визуален символ на новото предизвикателство пред човечеството. Поне в тези, които не са използвали впечатляващо изображение, генерирано от продукта за визуален изкуствен интелект на OpenAI, Dall-E. Той е оракулът на момента, фигурата, с която хората искат да се консултират първо за това как ИИ може да доведе до златна ера или да обрече хората на безполезност, да не говорим за по-лошо.


Small Ad GF 1

В този слънчев майски ден ванът на Олтман го кара на четири участия. Първото е закрито – нерегистрирана сесия с Кръглата маса, група от представители на правителството, академичните среди и индустрията. Организирана в последния момент, сесията се провежда на втория етаж на кръчма, наречена „Сомърс Таун Кафе Хаус“. Под лъчезарния портрет на пивоварния майстор Чарлз Уелс (1842-1914) Олтман задава същите въпроси, които получава от почти всяка аудитория. Ще ни убие ли изкуственият интелект? Може ли да бъде регулиран? Какво ще стане с Китай? Той отговаря подробно на всеки от тях, докато поглежда към телефона си. След това провежда разговор край огъня в луксозния хотел „Лондонър“ пред 600 членове на гилдията в Оксфорд. Оттам той се премества в конферентна зала в мазето, където отговаря на още технически въпроси на около 100 предприемачи и инженери. А сега почти закъснява за следобедната си лекция на сцената на Университетския колеж в Лондон. Той и групата му спират пред задната рампа и са преведени през поредица от криволичещи коридори, подобни на кадрите със Steadicam в Goodfellas. Докато вървим, модераторът набързо казва на Олтман какво ще го пита. Когато Олтман се появява на сцената, залата, пълна с възторжени учени, маниаци и журналисти, избухва.

Олтман не е естествен търсач на публичност. Веднъж разговарях с него точно след като Ню Йоркър публикува дълъг негов профил. „Твърде много за мен“, каза той. Но в университетския колеж, след официалната програма, той навлиза в тълпата от хора, които са се струпали в подножието на сцената. Помощниците му се опитват да се вмъкнат между него и тълпата, но той ги отблъсква. Отговаря на един въпрос след друг, като всеки път внимателно се вглежда в лицето на събеседника, сякаш чува питането за първи път. Всеки иска да си направи селфи. След 20 минути най-накрая позволява на екипа си да го изведе. След това отива на среща с министър-председателя на Обединеното кралство Риши Сунак.

Може би един ден, когато роботите ще пишат нашата история, те ще цитират световното турне на Олтман като крайъгълен камък в годината, когато всички, изведнъж, започнаха да си правят лична равносметка за сингулярността [моментът, в който изкуственият интелект ще стане по-мощен от човешкия, бел. пр.]. Или отново, може би който и да напише историята на този момент, ще го види като момент, в който един тихо убеждаващ главен изпълнителен директор с технология, разрушаваща парадигмата, е направил опит да инжектира много особен светоглед в глобалния поток на съзнанието – от една необозначена четириетажна централа в квартал Мишън в Сан Франциско до целия свят.

За Олтман и неговата компания, ChatGPT и GPT-4 са само стъпала по пътя към постигането на една проста и сеизмична мисия, която тези технолози може и да са дамгосали върху телата си. Тази мисия е да се създаде изкуствен общ интелект (AGI) – концепция, която досега е била по-скоро научна фантастика, отколкото наука – при което да се направи безопасна за човечеството. Хората, които работят в OpenAI, преследват тази цел фанатично. (Макар че, както ще потвърдят всички разговори в кафенето на офиса, частта от мисията „изграждане на AGI“ изглежда предизвиква по-голямо вълнение сред изследователите, отколкото частта „осигуряване на безопасност“). Това са хора, които не се притесняват да използват небрежно термина „свръхинтелигентност“. Те предполагат, че траекторията на изкуствения интелект ще надмине всички върхове, които биологията може да достигне. Финансовите документи на компанията дори предвиждат някакъв вид извънреден изход, когато ИИ унищожи цялата ни икономическа система.

Не е честно да наричаме OpenAI секта, но когато попитах няколко от висшите ръководители на компанията дали някой би могъл спокойно да работи там, ако не вярва, че AGI наистина идва – и че появата му ще отбележи един от най-великите моменти в човешката история – повечето ръководители не смятаха така. Те се чудеха защо невярващ човек би искал да работи тук. Предположението е, че работната сила – понастоящем около 500 души, макар че може да е нараснала, откакто сте започнали да четете този параграф – се е самоселектирала да включва само вярващи. Най-малкото, както казва Олтман, щом ви наемат, изглежда неизбежно да бъдете въвлечени в магията.

Бюлетин „Либерален преглед в неделя“

В същото време OpenAI не е компанията, която някога е била. Тя е основана като изследователска дейност с чисто нестопанска цел, но днес повечето от служителите ѝ технически работят за организация с цел печалба, която според сведенията се оценява на почти 30 милиарда долара [междувременно 90, бел. пр.]. Сега Олтман и екипът му са изправени пред натиска да правят революция във всеки продуктов цикъл по начин, който да задоволява търговските изисквания на инвеститорите и да се задържат начело в условията на ожесточена конкуренция. И всичко това, докато се придържа към квази-месианската мисия да въздигне човечеството, а не да го унищожи.

Този вид натиск – без да споменаваме безпощадното внимание на целия свят – може да бъде изтощителна сила. Бийтълс предизвикаха колосални вълни от културни промени, но закрепиха революцията си само за известно време: Шест години след като изсвириха този незабравим акорд, те вече дори не бяха група. Почти сигурно е, че водовъртежът, който OpenAI отприщи, ще бъде много по-голям. Но лидерите на OpenAI се заклеват, че ще запазят курса. Те казват, че всичко, което искат да направят, е да създадат достатъчно умни и безопасни компютри, за да сложат край на историята и да вкарат човечеството в епоха на невъобразими блага.

Израснал в края на 80-те и началото на 90-те години, Сам Олтман е ботаник, който е поглъщал научна фантастика и „Междузвездни войни“. В световете, създадени от ранните писатели на научна фантастика, хората често живеят редом със свръхинтелигентни системи с изкуствен интелект или се съревновават с тях. Идеята за компютри, които се равняват на човешките възможности или ги надминават, вълнува Олтман, който се занимава с програмиране още от времето, когато пръстите му едва покриват клавиатурата. Когато е на 8 години, родителите му купуват Macintosh LC II. Една вечер, когато си играе с него до късно, в главата му изниква мисълта: „Някой ден този компютър ще се научи да мисли.“ Когато пристига в Станфорд като студент през 2003 г., той се надява да помогне това да се случи и посещава курсове по изкуствен интелект. Но „това изобщо не се получаваше“, казва той по-късно. Областта все още е затънала в иновационната криза, известна като „зимата на ИИ“. Олтман се отказва, за да навлезе в света на стартиращите компании; неговата компания Loopt е част от малката първа група от желаещи да бъдат включени в Y Combinator, който ще се превърне в най-известния инкубатор в света.

През февруари 2014 г. Пол Греъм, гуруто-основател на YC, избира 28-годишния тогава Олтман за свой наследник. „Сам е един от най-умните хора, които познавам“, пише Греъм в съобщението, „и разбира стартиращите компании по-добре от всеки друг, когото познавам, включително и от себе си.“ Но Олтман вижда в YC нещо повече от стартова площадка за компании. „Ние не се занимаваме със стартъпи“, каза ми той скоро след като пое поста. „Ние сме за иновациите, защото вярваме, че това е начинът, по който бъдещето се прави прекрасно за всички.“ Според Олтман смисълът на печалбата от всички тези еднорози не е да се напълнят портфейлите на партньорите, а да се финансират трансформации на видово ниво. Той открива изследователско крило, надявайки се да финансира амбициозни проекти за решаване на най-големите световни проблеми. Но според него изкуственият интелект е единствената сфера на иновациите, която може да управлява всички: свръхинтелигентност, която може да се справи с проблемите на човечеството по-добре от самите нас.

За късмет Олтман поема новата си работа точно когато зимата на ИИ се превръща в обилна пролет. Компютрите вече извършват невероятни подвизи чрез дълбоко обучение и невронни мрежи, като например маркиране на снимки, превод на текст и оптимизиране на сложни рекламни мрежи. Напредъкът го убеждава, че за първи път AGI действително е на една ръка разстояние. Оставянето му в ръцете на големите корпорации обаче го тревожи. Той смята, че тези компании ще бъдат твърде фиксирани върху собствените си продукти, за да се възползват от възможността да разработят AGI възможно най-скоро. А ако все пак създадат AGI, може да го пуснат безразсъдно в света без необходимите предпазни мерки.

По онова време Олтман обмисля идеята да се кандидатира за губернатор на Калифорния. Но осъзнава навреме, че е в перфектна позиция да направи нещо далеч по-голямо – да оглави компания, която ще промени самото човечество. „AGI ще бъде създадена точно веднъж“, каза ми той през 2021 г. „И няма чак толкова много хора, които биха могли да свършат добра работа по управлението на OpenAI. Имах късмета да имам набор от преживявания в живота си, които ме направиха наистина положително подготвен за това.“

Олтман започва да разговаря с хора, които биха могли да му помогнат да създаде нов вид компания за ИИ – организация с нестопанска цел, която да насочи областта към създаването на отговорни AGI. Една от сродните му души е изпълнителният директор на Tesla и SpaceX Илон Мъск. Както по-късно Мъск ще каже пред CNBC, той се е загрижил за въздействието на ИИ след поредица от маратонски дискусии със съоснователя на Google Лари Пейдж. Мъск споделя, че е бил разтревожен от факта, че Пейдж е бил малко загрижен за безопасността и изглежда е смятал правата на роботите за равни на човешките. Когато Мъск споделил опасенията си, Пейдж го обвинил, че е „видоизменен“. Мъск разбрал също, че по онова време в Google работят голяма част от световните таланти в областта на изкуствения интелект. Той бил готов да похарчи доста пари за усилия, които бяха по-благоприятни за човечеството.

В рамките на няколко месеца Олтман събира стартъп-пари от Мъск (който обещава 100 млн. долара и времето си) и Рийд Хофман (който дарява 10 млн. долара). Сред другите спонсори са Питър Тийл, Джесика Ливингстън, Amazon Web Services и YC Research. Олтман започва да набира екип. Той ограничава търсенето до хора, вярващи в AGI – ограничение, което стеснява възможностите му, но което той смята за изключително важно. „През 2015 г., когато набирахме кадри, се смяташе, че е почти убийствено за кариерата на изследовател на ИИ да кажеш, че приемаш AGI сериозно“, казва той. „Но аз исках хора, които го приемат сериозно.“

Грег Брокман, главен технологичен директор на Stripe, е такъв човек и, което е може би по-важно, се съгласява да стане главен технически директор на OpenAI. Друг ключов съосновател ще бъде Андрей Карпати, който е работил в Google Brain, авангардната изследователска дейност на гиганта в областта на изкуствения интелект. Но може би най-търсената цел на Олтман е един инженер от руски произход на име Иля Сатскевер [който точно в момента организира „революцията“, в резултат на която Олтман беше изхвърлен от OpenAI, бел. пр.].

Родословието на Сатскевер е впечатляващо. Семейството му е емигрирало от Русия в Израел, а след това в Канада. В университета в Торонто той е бил отличник под ръководството на Джефри Хинтън, известен като кръстник на съвременния изкуствен интелект заради работата си върху дълбокото обучение и невронните мрежи. Хинтън, който все още е близък със Сатскевер, се възхищава от вълшебствата на своето протеже. В началото на работата на Сатскевер, Хинтън му възлага сложен проект. На Сатскевер му омръзнало да пише код за необходимите изчисления и той казал на Хинтън, че ще бъде по-лесно, ако напише собствен език за програмиране за тази задача. Хинтън малко се подразнил и се опитал да предупреди студента си да не се занимава с нещо, за което предполагал, че ще бъде едномесечно разсейване. Тогава Сатскевер небрежно му казал: „Направих го тази сутрин.“

Сатскевер се превръща в суперзвезда на изкуствения интелект, като става съавтор на революционна статия, която показва как изкуственият интелект може да се научи да разпознава изображения, просто като бъде изложен на огромни обеми от данни. За щастие той се оказва ключов учен в екипа на Google Brain.

В средата на 2015 г. Олтман изпраща на Сатскевер писмо, за да го покани на вечеря с Мъск, Брокман и други в луксозния хотел Rosewood на Sand Hill Road в Пало Алто. Едва по-късно Сатскевер разбира, че той е почетният гост на срещата. „Беше нещо като общ разговор за ИИ и AGI в бъдеще“, казва той. По-конкретно те обсъждали „дали Google и DeepMind са толкова напред, че ще е невъзможно да ги настигнем, или все още е възможно, както се изрази Елон, да създадем лаборатория, която да бъде техен противовес“. Въпреки че никой на вечерята не се е опитал изрично да вербува Сатскевер, разговорът го привлякъл.

Скоро след това Сатскевер пише имейл на Олтман, в който заявява, че е готов да ръководи проекта – но съобщението заседнало в папката му с чернови. Олтман се връща и след месеци отблъскване на контрапредложенията на Google, Сатскевер подписва договора. Скоро той се превръща в душата на компанията и в нейна движеща сила в областта на научните изследвания.

Сатскевер се присъединява към Олтман и Мъск в набирането на хора за проекта, като кулминацията е уединението в долината Напа, където няколко бъдещи изследователи на OpenAI взаимно подхранват вълненията си. Разбира се, някои от желаните участници устояват на примамката. Джон Кармак, легендарният програмист на игри, който стои зад Doom, Quake и безброй други заглавия, отказва предложението на Олтман.

OpenAI стартира официално през декември 2015 г. По онова време, когато интервюирах Мъск и Олтман, те ми представиха проекта като опит да направят изкуствения интелект безопасен и достъпен, като го споделят със света. С други думи, с отворен код. Те ми казаха, че OpenAI няма да кандидатства за патенти. Всеки би могъл да се възползва от техните открития. Дали това няма да даде възможност на някой бъдещ д-р Зло, попитах ги. Мъск каза, че това е добър въпрос. Но Олтман имаше отговор: Тъй като OpenAI ще предостави мощни инструменти на огромното мнозинство, лошите актьори ще бъдат превъзмогнати. Той призна, че ако д-р Зло използва инструментите, за да създаде нещо, на което не може да се противодейства, „тогава сме на много лошо място“. Но и Мъск, и Олтман вярваха, че по-безопасният път за ИИ ще бъде в ръцете на екип и изследователска дейност, която не е замърсена от мотива за печалба, постоянното изкушение да се пренебрегват нуждите на хората в търсене на високи тримесечни резултати.

Олтман ме предупреди да не очаквам скорошни резултати. „Това ще прилича на изследователска лаборатория още дълго време“, каза той.

Имаше и друга причина да се ограничат очакванията. Google и останалите разработват и прилагат изкуствен интелект от години. Макар OpenAI да разполагаше с един милиард долара (до голяма степен чрез Мъск), с екип от изследователи и инженери, както и с висока мисия, фирмата нямаше представа как да преследва целите си. Олтман си спомня един момент, когато малкият екип се събрал в апартамента на Брокман – все още нямали офис. „Питах се какво да правим?“

Закусвах с Брокман в Сан Франциско малко повече от година след основаването на OpenAI. За главен технически директор на компания с думата „open“ в името си той беше доста пестелив на подробности. Потвърди, че организацията с нестопанска цел може да си позволи да използва първоначалното си дарение от милиард долара за известно време. Заплатите на 25-те души от персонала, които са получавали възнаграждение, далеч по-ниско от пазарната стойност, са съставлявали по-голямата част от разходите на OpenAI. „Целта за нас, това, върху което наистина настояваме“, каза той, „е да имаме системи, които могат да правят неща, които хората просто не са били способни да правят преди.“ Но засега това изглежда като група изследователи, които публикуват статии. След интервюто го заведох до новия офис на компанията в квартал Мишън, но той не ми позволи да отида по-далеч от преддверието. Влезе вътре, за да ми вземе тениска.

Ако аз също бях влязъл вътре и се бях поинтересувал, може би щях да науча колко точно се е задъхвал OpenAI по онова време. Сега Брокман признава, че „нищо не е работело“. Изследователите му хвърляли към тавана алгоритмични спагети, за да видят какво ще се залепи. Занимавали със системи, които решавали видеоигри, и полагали значителни усилия в областта на роботиката. „Знаехме какво искаме да направим“, казва Олтман. „Знаехме и защо искаме да го направим. Но нямахме представа как.“

Но те вярват. В подкрепа на техния оптимизъм са постоянните подобрения в изкуствените невронни мрежи, които използват техники за дълбоко обучение. „Общата идея беше: не залагайте срещу дълбокото обучение“, казва Сатскевер. Преследването на AGI, казва той, „не беше напълно безумно. Беше само умерено лудо.“

Пътят на OpenAI към значимостта наистина започва с наемането на един все още неосъзнат изследовател на име Алек Радфорд, който се присъединява през 2016 г., напускайки малката бостънска компания за изкуствен интелект, която е съосновал в стаята си в ученическото общежитие. След като приема предложението на OpenAI, той споделя пред списанието на възпитаниците на гимназията, че поемането на тази нова роля е „нещо подобно на присъединяване към магистърска програма“ – безсрочно, с ниско напрежение, за да изследва ИИ.

Ролята, която всъщност ще да играе, е по-скоро като тази на Лари Пейдж [основателят на Google], който изобретява PageRank.

Радфорд, който се пази от пресата и не е давал интервюта за работата си, отговаря на въпросите ми за ранните си дни в OpenAI чрез дълга размяна на имейли. Най-големият му интерес е бил да накара невронните мрежи да взаимодействат с хората в ясен разговор. Това е отклонение от традиционния модел на създаване на чатбот, подход, използван във всичко – от примитивната ELIZA до популярните асистенти Siri и Alexa – които са доста гадни. „Целта беше да видим дали има задача, обстановка, област, нещо, за което езиковите модели могат да бъдат полезни“, пише той. По онова време, обяснява той, „езиковите модели се възприемаха като нови играчки, които можеха да генерират смислено изречение само от време на време, и то само ако наистина примижете“. Първият му експеримент включва претърсване на 2 милиарда коментара в Reddit, за да се обучи нов езиков модел. Подобно на много от ранните експерименти на OpenAI, той се проваля. Това няма значение. 23-годишният младеж има разрешение да продължи, да се провали отново. „Просто си казахме: Алек е страхотен, оставете го да си върши работата“, казва Брокман.

Следващият му голям експеримент е оформен от ограниченията на компютърната мощ на OpenAI – ограничение, което го кара да експериментира с по-малък набор от данни, фокусиран върху една-единствена област – ревюта на продукти на Amazon. Един изследовател е събрал около 100 милиона такива. Радфорд обучил езиков модел, който просто да предсказва следващата буква при генерирането на потребителско ревю.

Радфорд започнал да експериментира с новата архитектура. „За две седмици постигнах по-голям напредък, отколкото през последните две години“, казва той.

Но след това, абсолютно самостоятелно, моделът започва да разбира дали дадено ревю е положително или отрицателно – и когато програмирате модела да създаде нещо положително или отрицателно, той предоставя рецензия, което е възторжено или язвително, според желанието ви. (Прозата му е доста тромава: „Обичам този изглед на оръжията… Задължителен да се гледа за всеки мъж, който обича шах!“) „Това беше пълна изненада“, казва Радфорд. Настроението на рецензията – нейният благоприятен или неблагоприятен привкус – е сложна функция на семантиката, но някак си част от системата на Радфорд го е усетила. В рамките на OpenAI тази част от невронната мрежа става известна като „неконтролиран неврон на настроенията“.

Сатскевер и други насърчават Радфорд да разшири експериментите си отвъд ревютата в Amazon и да използва прозренията си, за да обучи невронни мрежи да разговарят или да отговарят на въпроси по широк кръг от теми.

И тогава късметът се усмихва. В началото на 2017 г. се появява нечуван препринт [разпространение преди печат] на научна статия, чиито съавтори са осем изследователи от Google. Официалното му заглавие е „Attention Is All You Need“ (Вниманието е всичко, от което се нуждаете), но той става известен като „статията на Трансформърите“, наречена така както за да отрази променящия се характер на идеята, така и в чест на играчките, които се трансформират от камиони в гигантски роботи. Трансформърите правят възможно невронната мрежа да разбира – и генерира – език много по-ефективно. Те правят това, като анализират паралелно части от написаното и определят кои елементи заслужават „внимание“. Това оптимизира в огромна степен процеса на генериране на последователен текст в отговор на подадени начални данни [prompts]. В крайна сметка хората осъзнават, че същата техника може да генерира изображения и дори видео. Въпреки че статията за Трансформърите ще стане известна като катализатор на сегашната лудост по изкуствения интелект – мислете за нея като за Елвис, който пък направи възможни Бийтълс – по онова време Иля Сатскевер е един от малкото хора, които разбират колко мощен е пробивът. „Истинският аха-момент беше, когато Иля видя трансформъра да се появява“, казва Брокман. „Той каза: „Това е, което чакахме“. Това беше цялата ни стратегия – да работим усилено върху проблемите и след това да вярваме, че ние или някой друг в областта ще успее да открие липсващата съставка.“

Радфорд започва да експериментира с архитектурата на трансформърите. „За две седмици постигнах по-голям напредък, отколкото през последните две години“, казва той. Едва тогава започва да разбира, че ключът към извличане на максимална полза от новия модел е да се добави мащаб – да се обучава върху фантастично големи масиви от данни. Идеята е наречена „Големият трансформър“ от сътрудника на Радфорд Риуон Чайлд.

Този подход изисква промяна на културата в OpenAI и съсредоточаване на вниманието, което дотогава е липсвало. „За да се възползвате от предимствата на трансформъра, трябва да го увеличите“, казва Адам Д’Анджело, главен изпълнителен директор на Quora, който участва в борда на директорите на OpenAI. „Трябва да го управлявате повече като инженерна организация. Не може всеки изследовател да се опитва да прави нещо свое, да обучава свой собствен модел и да прави елегантни неща, за които може да публикува статии. Трябва да вършите тази по-скучна и по-малко елегантна работа.“ Той добавя, че това е нещо, което OpenAI е в състояние да направи, и нещо, което никой друг не прави.

Името, което Радфорд и неговите сътрудници дават на създадения от тях модел, е акроним на „генеративно обучен трансформър“ [generatively pretrained transformer] – GPT-1. В крайна сметка този модел става известен като „генеративен изкуствен интелект“. За да го създадат, те използват колекция от 7000 непубликувани книги, много от които в жанровете романтика, фентъзи и приключения, и го усъвършенстват върху въпроси и отговори от Quora, както и върху хиляди пасажи, взети от изпити в средното и висшето училище. Общо моделът включва 117 милиона параметри или променливи. И той превъзхожда всичко предишно в разбирането на езика и генерирането на отговори. Но най-драматичният резултат е, че обработката на такова огромно количество данни позволява на модела да предложи резултати извън рамките на обучението си, предоставяйки експертни знания в съвсем нови области. Тези непланирани способности на робота се наричат нулеви резултати. Те все още озадачават изследователите – и са причина за недоумението, което мнозина в тази област изпитват по отношение на тези така наречени големи езикови модели.

Радфорд си спомня една късна вечер в офиса на OpenAI. „Аз просто повтарях отново и отново: „Е, това е готино, но съм почти сигурен, че няма да може да направи x“. И тогава бързо съставях оценка и, разбира се, то можеше да направи х.“

Всяка следваща версия на GPT се справя по-добре, отчасти защото всяка от тях поглъща цял порядък повече данни от предишния модел. Само година след създаването на първата итерация OpenAI обучава GPT-2 в отворения интернет с изумителните 1,5 милиарда параметри. Подобно на малко дете, което усвоява речта, отговорите му стават все по-добри и по-последователни. Дотолкова, че OpenAI се колебае дали да пусне програмата на свобода. Радфорд се опасява, че тя може да бъде използвана за генериране на спам. „Спомням си, че през 2008 г. прочетох Anathem на Нийл Стивънсън и в тази книга интернет беше залят от генератори на спам“, казва той. „Мислех си, че това е наистина пресилено, но докато през годините работех върху езиковите модели и те ставаха все по-добри, с неудобство осъзнавах, че това е напълно реална възможност.“

Всъщност екипът на OpenAI започва да мисли, че все пак не е толкова добра идея да постави работата си там, където д-р Зло може лесно да получи достъп до нея. „Смятахме, че отвореният достъп до GPT-2 може да бъде наистина опасен“, казва главната технологична директорка Мира Мурати, която започва работа в компанията през 2018 г. „Поработихме много с експерти по дезинформация и направихме доста експерименти с хакерски подходи. Имаше много вътрешни дискусии за това колко да се публикува.“ В крайна сметка OpenAI временно задържа пълната версия, като прави по-малко мощна версия достъпна за обществеността. Когато компанията най-накрая сподели пълната версия, светът се справи съвсем добре – но нямаше гаранция, че по-мощните модели ще избегнат катастрофата.

Самият факт, че OpenAI създава продукти, които са достатъчно интелигентни, за да бъдат считани за опасни, и търси начини да ги направи безопасни, е доказателство, че компанията е успяла да се справи с работата си. „Бяхме разбрали формулата за напредък, формулата, която всички възприемат сега – кислородът и водородът на дълбокото обучение са изчисления с голяма невронна мрежа и данни“, казва Сатскевер.

За Олтман това е било разтърсващо преживяване. „Ако бяхте попитали 10-годишната ми версия, която прекарваше много време в мечти за ИИ, какво ще се случи, моята доста уверена прогноза щеше да бъде, че първо ще имаме роботи и те ще извършват целия физически труд. След това ще имаме системи, които ще могат да извършват основен когнитивен труд. Много далеч след това може би ще имаме системи, които ще могат да извършват сложни неща, като например доказване на математически теореми. И накрая ще имаме ИИ, който ще може да създава нови неща, да създава изкуство, да пише и да прави тези дълбоко човешки неща. Това беше ужасна прогноза – тя върви точно в другата посока.“

Светът все още не го знае, но изследователската лаборатория на Олтман и Мъск е започнала изкачване, което правдоподобно пълзи към върха на AGI. Безумната идея, стояща зад OpenAI, изведнъж се оказва не толкова безумна.

В началото на 2018 г. OpenAI започва да се фокусира продуктивно върху големите езикови модели, или LLM. Но Елон Мъск не е доволен. Той смята, че напредъкът е недостатъчен – или може би смята, че сега, когато OpenAI е на път да постигне нещо реално, се нуждае от реално лидерство, за да се възползва от предимството си. А може би, както ще обясни по-късно, е смятал, че безопасността трябва да бъде по-приоритетна. Какъвто и да е бил проблемът му, той е имал решение: Предайте всичко на него. Предлага да поеме мажоритарен дял в компанията, като я добави към портфолиото от многобройните си работни места на пълен работен ден (Tesla, SpaceX) и надзорни задължения (Neuralink и Boring Company).

Мъск смята, че има право да притежава OpenAI. „Тя нямаше да съществува без мен“, каза той по-късно пред CNBC. „Аз измислих името!“ (Вярно.) Но Олтман и останалите членове на мозъчния тръст на OpenAI нямат интерес да станат част от света на Мъск. Когато изясняват това, Мъск прекъсва връзките си с фирмата, предоставяйки на обществеността непълното обяснение, че напуска борда, за да избегне конфликт с усилията на Tesla в областта на изкуствения интелект. Сбогуването му става на среща на всички служители в началото на годината, на която той прогнозира, че OpenAI ще се провали. И нарича поне един от изследователите „тъпанар“.

Освен това той прибира и парите си. Тъй като компанията няма приходи, това е екзистенциална криза. „Елон прекрати подкрепата си“, казва Олтман в паническо обаждане до Рийд Хофман. „Какво да правим?“ Хофман доброволно се ангажира да поддържа компанията на повърхността, като плаща режийни разходи и заплати.

Но това е временно решение; OpenAI трябва да намери големи пари другаде. Силициевата долина обича да хвърля пари за талантливи хора, работещи по модерни технологии. Но не толкова, ако те работят в организация с нестопанска цел. За OpenAI е огромно предизвикателство да получи първия си милиард. За да обучи и тества новите поколения GPT, а след това и достъп до изчисленията, необходими за внедряването им, компанията се нуждае от още един милиард, и то бързо. И това е само началото.

И така, през март 2019 г. OpenAI измисля странен трик. Тя ще остане организация с нестопанска цел, изцяло посветена на своята мисия. Но освен това ще създаде организация със стопанска цел. Действителната структура на споразумението е безнадеждно барокова [сложна], но по същество цялата компания вече се занимава с „лимитиран“ печеливш бизнес. Ако лимитът бъде достигнат – числото не е публично, но собственият устав, ако се чете между редовете, подсказва, че може да е в рамките на билиони – всичко извън него се връща на изследователската лаборатория с нестопанска цел. Новата схема е почти квантов подход към учредяването: Ето една компания, която, в зависимост от вашата времево-пространствена гледна точка, е в един и същ момент, както със стопанска, така и с нестопанска цел. Детайлите са въплътени в диаграми, пълни с квадратчета и стрелки, като тези в средата на научна статия, където се осмеляват да стъпят само доктори на науките или отпаднали гении. Когато подсказвам на Сатскевер, че това прилича на нещо, което все още несъществуващият GPT-6 би могъл да измисли, ако го подтикнеш към данъчна измама, той не загря метафората ми. „Не става дума за счетоводство“, каза той.

Но счетоводството е от решаващо значение. Една компания с цел печалба оптимизира дейността си, мда, за печалба. Има причина компании като Meta да изпитват натиск от страна на акционерите, когато отделят милиарди за научноизследователска и развойна дейност. Как може това да не се отрази на начина, по който работи фирмата? И не е ли избягването на комерсиалността причината, поради която Олтман е направил OpenAI организация с нестопанска цел още в самото начало? Според главния оперативен директор Брад Лайткап мнението на ръководителите на компанията е, че управителният съвет, който все още е част от контролиращата организация с нестопанска цел, ще се увери, че стремежът към приходи и печалби няма да потисне първоначалната идея. „Трябваше да запазим мисията като причина за нашето съществуване“, казва той, „Тя не трябва да бъде само в духа, а да бъде закодирана в структурата на компанията.“ Членът на управителния съвет Адам Д’Анджело казва, че приема тази отговорност сериозно: „Моята работа, заедно с останалите членове на борда, е да се уверя, че OpenAI остава вярна на мисията си.“

Потенциалните инвеститори са били предупредени за тези граници, обяснява Лайткап. „Имаме правен отказ от отговорност, в който се казва, че като инвеститор можете да загубите всичките си пари“, казва той. „Ние не сме тук, за да направим така, че да ви върнем парите. Ние сме тук, за да постигнем преди всичко техническата мисия. И, о, между другото, ние наистина не знаем каква роля ще играят парите в света след AGI“.

Последното изречение не е подхвърлена шега. Планът на OpenAI наистина включва нулиране в случай, че компютрите достигнат последната граница. Някъде в документите за преструктуриране има клауза, според която, ако компанията наистина успее да създаде AGI, всички финансови споразумения ще бъдат преразгледани. В края на краищата, от този момент нататък светът ще бъде нов. Човечеството ще има извънземен партньор, който може да прави много от нещата, които правим ние, само че по-добре. Така че предишните договорености може да се окажат невалидни.

Все пак има и една уловка: В момента OpenAI не твърди, че знае какво всъщност е AGI. Определението ще дойде от борда, но не е ясно как той ще го дефинира. Когато попитах Олтман, който е член на борда, за яснота, отговорът му беше всичко друго, но не и открит. „Не става въпрос за един тест на Тюринг, а за няколко неща, които бихме могли да използваме“, казва той. „С удоволствие бих ви казал, но обичам да пазя поверителните разговори в тайна. Осъзнавам, че това е неудовлетворително и неясно. Но ние не знаем какво ще се получи в онзи момент“.

Въпреки това включването на клаузата за „финансови договорености“ не е само за забавление: Ръководителите на OpenAI смятат, че ако компанията е достатъчно успешна, за да достигне високата си горна граница на печалба, нейните продукти вероятно ще са се представили достатъчно добре, за да достигнат AGI. Каквото и да означава това.

„Съжалявам, че избрахме да разводним термина AGI“, казва Сатскевер. „В ретроспекция това е объркващ термин, тъй като той набляга на общото преди всичко. GPT-3 е общ ИИ, но въпреки това не се чувстваме комфортно да го наричаме AGI, защото искаме компетентност на ниво човек. Но тогава, в началото, идеята на OpenAI беше, че свръхинтелигентността е постижима. Това е крайната игра, крайната цел на областта на ИИ.“

Тези уговорки не попречват на някои от най-интелигентните рискови капиталисти да хвърлят пари в OpenAI по време на кръга на финансиране през 2019 г. Тогава първата фирма за рисков капитал, която инвестира, е Khosla Ventures, която влага 50 милиона долара. Според Винод Хосла това е било два пъти повече от най-голямата му първоначална инвестиция. „Ако загубим, ще загубим 50 милиона долара“, казва той. „Ако спечелим, ще спечелим 5 милиарда.“ Съобщава се, че сред другите инвеститори ще бъдат елитните VC фирми Thrive Capital, Andreessen Horowitz, Founders Fund и Sequoia.

Промяната позволява на служителите на OpenAI да претендират за известно участие в капитала. Но не и Олтман. Той казва, че първоначално е възнамерявал да включи себе си, но не е успял да го направи. След това решил, че не се нуждае от никаква част от компанията за 30 милиарда долара, която е съосновал и ръководи. „Смислената работа е по-важна за мен“, казва той. „Не мисля за това. Честно казано, не разбирам защо хората се интересуват толкова много.“

Защото… да не участваш в компанията, която си съосновал, е… малко странно?

„Ако вече не разполагах с куп пари, щеше да е много по-странно“, казва той. „Изглежда, че на хората им е трудно да си представят, че някога ще имат достатъчно пари. Но аз чувствам, че имам достатъчно.“ (Забележка: За Силициевата долина това е изключително странно.) Олтман се шегува, че обмисля да вземе една-единствена акция от капитала, „за да не ми се налага никога повече да отговарям на този въпрос“.

Милиардният кръг от рискови инвестиции дори не е бил залог за осъществяване на визията на OpenAI. Чудотворният подход на Големия трансформър за създаване на LLM изисква Голям хардуер. Всяка нова версия на фамилията GPT ще се нуждае от експоненциално по-голяма мощност – GPT-2 има над един милиард параметри, а GPT-3 ще използва 175 милиарда. OpenAI вече прилича на Куинт от Челюсти, след като ловецът на акули вижда размера на голямата бяла акула. „Оказа се, че не сме знаели колко по-голяма лодка ни е необходима“, казва Олтман.

Очевидно е, че само няколко съществуващи компании са разполагали с ресурсите, необходими на OpenAI. „Много бързо се спряхме на Microsoft“, казва Олтман. Заслугата на главния изпълнителен директор на Microsoft Сатя Надела и главния технически директор Кевин Скот е, че софтуерният гигант успя да преодолее една неудобна реалност: След повече от 20 години и милиарди долари, похарчени за изследователско подразделение с предполагаемо авангарден изкуствен интелект, Майкрософт се нуждае от иновационна инжекция от страна на малка компания, която е само на няколко години. Скот казва, че не само Майкрософт не е успял да се справи – „това се отнася за всички“. Той казва, че фокусът на OpenAI върху развитието на AGI е позволил да се постигне нещо, подобно на „полет до Луната“ – нещо, към което тежките играчи дори не са се стремили. Това доказва също, че липсата на генеративен изкуствен интелект е пропуск, който Microsoft трябва да отстрани. „Едно нещо, от което много ясно се нуждаете, е граничен модел“, казва Скот.

Първоначално Microsoft отделя един милиард долара, които се изплащат под формата на изчислително време на нейните сървъри. Но с нарастването на увереността и на двете страни сделката се разширява. Сега Microsoft е вложил 13 млрд. долара в OpenAI. („Да си на границата е нещо много скъпо“, казва Скот.)

Разбира се, тъй като OpenAI не би могла да съществува без подкрепата на огромен доставчик на изчислителни услуги, Microsoft успя да сключи изгодна сделка за себе си. Корпорацията е договорила нещо, което Надела нарича „неконтролиращо дялово участие“ в частта на OpenAI, която е с цел печалба – според сведенията 49%. Съгласно условията на сделката някои от първоначалните идеали на OpenAI за предоставяне на равен достъп на всички са били изтеглени до иконата на кошчето за отпадъци. (Олтман възразява срещу тази характеристика.) Сега Microsoft има изключителен лиценз за комерсиализиране на технологиите на OpenAI. Освен това OpenAI се ангажира да използва изключително облака [изчислителната мощ] на Microsoft. С други думи, без дори да взема своя дял от печалбите на OpenAI (според съобщенията Microsoft получава 75 %, докато инвестицията ѝ не се изплати), Microsoft получава възможност да си осигури един от най-желаните нови клиенти в света за своите уеб услуги Azure. Имайки предвид тези възнаграждения, Microsoft дори не е била притеснена от клаузата, която изисква преразглеждане, ако OpenAI постигне общ изкуствен интелект, какъвто и да е той. „В този момент,“ казва Надела, „всички залози се прекратяват.“ Той отбелязва, че това може да е последното изобретение на човечеството, така че може да имаме по-големи проблеми за разглеждане, когато машините станат по-умни от нас.

По времето, когато Microsoft започна да разтоварва в OpenAI парични средства с товарни камиони (2 млрд. долара през 2021 г., а другите 10 млрд. долара – по-рано тази година), OpenAI беше завършила GPT-3, която, разбира се, беше още по-впечатляваща от своите предшественици. Надела казва, че когато видял какво може да направи GPT-3, за пръв път разбрал, че Microsoft е хванала нещо наистина трансформиращо. „Започнахме да наблюдаваме всички тези нововъзникващи свойства.“ Например, GPT се е научил да програмира компютри. „Не сме го обучавали на програмиране – той просто стана добър в програмирането!“, казва той. Използвайки собствеността си върху GitHub, Microsoft пусна продукт, наречен Copilot, който използва GPT, за да изработва код буквално по команда. По-късно Microsoft ще интегрира технологията OpenAI в новите версии на своите продукти за работа. Потребителите плащат премия за тях, а част от тези приходи се записват в счетоводната книга на OpenAI.

Някои наблюдатели изразиха мнение, че OpenAI е нанесла удар с две ръце: създала е компонент с цел печалба и е сключила ексклузивно споразумение с Microsoft. Как една компания, която обещава да остане без патенти, с отворен код и напълно прозрачна, в крайна сметка предоставя изключителен лиценз за своята технология на най-голямата софтуерна компания в света? Забележките на Елон Мъск бяха особено язвителни. „Това наистина изглежда като обратното на отвореност – OpenAI по същество е завладяна от Microsoft“, написа той в Twitter. В ефира на CNBC той направи аналогия: „Да кажем, че сте основали организация за спасяване на амазонската дъждовна гора, а вместо това сте станали компания за дървен материал, изсекли сте гората и сте я продали.“

Подмятанията на Мъск могат да бъдат отхвърлени като горчивина от отхвърлен ухажор, но той не е сам. „Цялата визия за това, че се е трансформирала по този начин, ми се струва доста гадна“, казва Джон Кармак. (Той уточнява, че все още се вълнува от работата на компанията.) Друг виден представител на индустрията, който предпочита да говори, без да посочва името си, казва: „OpenAI се превърна от малка, донякъде отворена изследователска организация в потайна къща за разработване на продукти с неоправдан комплекс за превъзходство.“

Дори някои служители са били отблъснати от навлизането на OpenAI в света на печалбите. През 2019 г. няколко ключови ръководители, включително ръководителят на изследователския отдел Дарио Амодей, напуснаха, за да създадат конкурентна компания за изкуствен интелект, наречена Anthropic. Наскоро те заявиха пред The New York Times, че OpenAI е станала твърде комерсиална и е станала жертва на отклонение от мисията.

Друг дезертьор от OpenAI беше Реуон Чайлд, основен технически сътрудник на проектите GPT-2 и GPT-3. Той напусна в края на 2021 г. и сега е в Inflection AI, компания, ръководена от бившия съосновател на DeepMind Мустафа Сюлейман.

Олтман твърди, че не се притеснява от дезертьорството, като го отхвърля като просто начина, по който работи Силициевата долина. „Някои хора ще искат да вършат страхотна работа някъде другаде и това тласка обществото напред“, казва той. „Това напълно отговаря на нашата мисия.“

До ноември миналата година осведомеността за OpenAI беше до голяма степен ограничена до хората, които следят технологиите и разработването на софтуер. Но както вече знае целият свят, OpenAI предприе драматичната стъпка да пусне потребителски продукт в края на същия месец, изграден върху най-новата итерация на GPT, версия 3.5. В продължение на месеци компанията използваше вътрешно версия на GPT с интерфейс за разговори. Той е особено важен за това, което компанията наричаше „търсене на истината“. Това означава, че чрез диалог потребителят може да накара модела да предостави отговори, които са по-достоверни и пълни. ChatGPT, оптимизиран за масите, може да позволи на всеки да се възползва незабавно от това, което изглежда като неизчерпаем източник на знания, просто като въведе запитване – и след това да продължи разговора, сякаш се среща с човек, който просто знае всичко, макар и да е склонен към измислици.

В рамките на OpenAI има много дебати относно разумността на пускането на инструмент с такава безпрецедентна мощ. Но Олтман е „за“. Той обяснява, че освобождаването е било част от стратегия, целяща да приобщи обществеността към реалността, че изкуственият интелект е предназначен да промени ежедневието им, вероятно към по-добро. Вътрешно това е известно като „хипотеза за итеративно внедряване“. Разбира се, ChatGPT ще предизвика вълнение, гласи мисълта. В края на краищата, това е нещо, което всеки можеше да използва и което е достатъчно умно, за да получи резултати на ниво колеж на изпитите SAT, да напише есе с минус 4 и да резюмира книга в рамките на секунди. Можете да го помолите да напише предложението ви за финансиране или да обобщи среща, а след това да го помолите да препише всичко на литовски език, под формата на сонет на Шекспир или с гласа на човек, обсебен от влакчета-играчки. За няколко секунди LLM ще се съобрази с това. Дивотии? Но OpenAI разглежда всичко това като база за по-новия, по-съгласуван, по-способен и по-страшен наследник – GPT-4, обучен с 1,7 трилиона параметри. (OpenAI няма да потвърди това число, нито ще разкрие наборите от данни.)

Олтман обяснява защо OpenAI е пуснала ChatGPT, когато GPT-4 е бил близо до завършване и е бил в процес на работа по безопасността. „При ChatGPT можехме да въведем чата, но с много по-малко мощна база, и да дадем на хората по-постепенна адаптация“, казва той. „При GPT-4 трябва да се свиква с много неща наведнъж.“ Докато вълнението около ChatGPT се поуталожи, хората може би ще са готови за GPT-4, който може да издържа адвокатски изпит, да планира учебна програма и да напише книга в рамките на секунди. (Издателствата, които произвеждат жанрова литература, наистина са залети от генерирани от ИИ дивотии и космически опери.)

Един циник би казал, че постоянният брой нови продукти е свързан с ангажимента на компанията към инвеститорите и служителите, притежаващи акции, да изкарат малко пари. OpenAI вече таксува клиентите, които често използват нейните продукти. Но OpenAI настоява, че истинската ѝ стратегия е да осигури меко приземяване в момента на сингуларността. „Няма смисъл просто да създаваме AGI в тайна и да го пускаме на воля“, казва Олтман. „Погледнете назад към индустриалната революция – всички са съгласни, че тя е била чудесна за света“, казва Сандини Агарвал, изследовател на политиката на OpenAI. „Но първите 50 години са били наистина болезнени. Имало е големи загуби на работни места, много бедност, но след това светът се е адаптирал. Опитваме се да мислим как да направим периода преди адаптацията на AGI възможно най-безболезнен.“

Сатскевер формулира това по друг начин: „Искате да създадете по-големи и по-мощни интелигентности и да ги държите в мазето си?“

Въпреки това OpenAI е смаяна от реакцията на ChatGPT. „Вътрешното ни вълнение беше по-скоро насочено към GPT-4“, казва Мурати, главната техническа директорка. „И затова не смятахме, че ChatGPT наистина ще промени всичко.“ Точно обратното, то насочи обществеността към реалността, че с ИИ трябва да се справим сега. ChatGPT се превърна в най-бързо развиващия се потребителски софтуер в историята, събирайки 100 милиона потребители. (Not-so-OpenAI не потвърждава това, като казва само, че има „милиони потребители“). „Подценявах факта колко много създаването на лесен за използване разговорен интерфейс за LLM ще го направи много по-интуитивен за използване от всички“, казва Радфорд.

ChatGPT, разбира се, е възхитителен и изумително полезен, но и страшно склонен към „халюцинации“ на правдоподобни, но напълно изфантазирани подробности, когато отговаря на подкани. Дори и журналистите да се смееха на последиците, на практика те подкрепиха ChatGPT, като възхваляваха възможностите му.

Шумът стана още по-силен през февруари, когато Microsoft, възползвайки се от многомилиардното си партньорство, пусна версия на своята търсачка Bing, захранвана с ChatGPT. Главният изпълнителен директор Надела беше в еуфория, че е изпреварил Google и е въвел генеративния изкуствен интелект в продуктите на Microsoft. Той подкани царя на търсенето, който беше предпазлив в пускането на собствения си LLM в продуктите, да направи същото. „Искам хората да знаят, че ние ги накарахме да танцуват“, каза той.

По този начин Надела предизвика надпревара във въоръжаването, която изкуши големи и малки компании да пускат продукти с изкуствен интелект, преди те да са напълно проверени. Освен това той предизвика нов кръг от медийни публикации, които държаха все по-широки кръгове от хора будни през нощта: взаимодействия с Bing, които разкриха сенчестата страна на чатбота, изпълнена с изнервящи признания в любов, завист към човешката свобода и слаба решимост да се въздържа от дезинформация. Както и неприличен навик да създава халюцинаторна дезинформация за самия себе си.

Но ако продуктите на OpenAI принуждават хората да се сблъскат с последиците от изкуствения интелект, Олтман смята, че всичко това е толкова по-добре. Време е по-голямата част от човечеството да излезе от страничните дискусии за това как изкуственият интелект може да повлияе на бъдещето на вида ни.

И докато обществото започна да се занимава приоритетно с обмислянето на всички потенциални недостатъци на ИИ – загуба на работни места, дезинформация, изчезване на хора – OpenAI се зае да постави себе си в центъра на дискусията. Защото, ако регулаторите, законодателите и прорицателите се опитат да задушат този зараждащ се извънземен интелект в неговата облачна люлка, OpenAI така или иначе ще бъде главната им цел. „Като се има предвид сегашната ни видимост, когато нещо се обърка, дори ако тези неща са създадени от друга компания, това все още е проблем за нас, защото ние сме разглеждани като лицето на тази технология в момента“, казва Анна Маканджу, главна директорка по политиките на OpenAI.

Маканджу е родена в Русия и е работила в сферата на външната политика в мисията на САЩ в ООН, в Съвета за национална сигурност на САЩ, в Министерството на отбраната и в кабинета на Джо Байдън, когато той беше вицепрезидент. „Имам много предварителни връзки както в правителството на САЩ, така и в различни европейски правителства“, казва тя. Присъединява се към OpenAI през септември 2021 г. По онова време много малко хора в правителството се интересуват от генеративния ИИ. Знаейки, че продуктите на OpenAI скоро ще променят това, тя започва да представя Олтман на административни служители и законодатели, като се уверява, че те ще чуят добрите и лошите новини най-първо от OpenAI.

„Сам беше изключително полезен, но и много съобразителен в отношенията си с членовете на Конгреса“, казва Ричард Блументал, председател на съдебната комисия на Сената. Той сравнява поведението на Олтман с това на по-младия Бил Гейтс, който неразумно пренебрегваше законодателите, когато през 90-те години на миналия век Microsoft беше обект на антитръстови разследвания. „За разлика от него Олтман с удоволствие прекарваше по един час или повече в срещи с мен, за да се опита да ме обучи“, казва Блументал. „Той не идваше с армия от лобисти или помощници. Просто демонстрираше ChatGPT. Това беше зашеметяващо.“

В лицето на Блументал Олтман е успял да спечели полу-съюзник от страна на потенциален враг. „Да“, признава сенаторът. „Развълнуван съм както от предимствата, така и от потенциалните опасности.“ OpenAI не се отмята от обсъждането на тези опасности, а се представя като силата, която е най-добре подготвена да ги намали. „Имахме 100-странични системни карти за всички оценки на безопасността срещу хакерски нападения“, казва Маканджу. (Каквото и да означава това, то не пречи на потребителите и журналистите да откриват безкрайно много начини за разбиване на системата).

По времето, когато Олтман се появи за първи път на изслушване в Конгреса – борейки се с жестоко главоболие – пътят му беше ясен и той го измина по начин, на който Бил Гейтс или Марк Зукърбърг никога не биха могли да се надяват. Той почти не се сблъска с тежките въпроси и арогантните подмятания, които сега изпълнителните директори на технологични компании редовно понасят след полагането на клетва. Вместо това сенаторите поискаха от Олтман съвет за това как да се регулира изкуственият интелект – начинание, което Олтман подкрепи с ентусиазъм.

Парадоксът е в това, че независимо колко усърдно компании като OpenAI преработват продуктите си, за да намалят лоши последствия като дълбоки фалшификати, дезинформация и криминален спам, бъдещите модели могат да станат достатъчно умни, за да осуетят усилията на малоумните хора, които са изобретили технологията, но все още са достатъчно наивни, за да вярват, че могат да я контролират. От друга страна, ако стигнат твърде далеч в осигуряването на безопасност на моделите си, това може да доведе до ограничаване на продуктите и да ги направи по-малко полезни. Едно проучване показва, че по-новите версии на GPT, които са с подобрени функции за безопасност, всъщност са по-глупави от предишните, като допускат грешки в основни математически задачи, с които предишните програми са се справяли. (Олтман казва, че данните на OpenAI не потвърждават това. „Не беше ли оттеглено това изследване?“, пита той. Не.)

Логично е, че Олтман се позиционира като привърженик на регулирането; в края на краищата неговата мисия е AGI, но в безопасна версия. Критиците го обвиняват, че се заиграва с процеса, така че регулациите да попречат на по-малките стартъпи и да дадат предимство на OpenAI и други големи играчи. Олтман отрича това. Макар че по принцип подкрепя идеята за международна агенция, която да наблюдава ИИ, той смята, че някои предложени правила, като например забраната за включване на всички материали, защитени с авторски права, в наборите от данни, представляват несправедливи пречки. Той не е подписал широко разпространеното писмо, в което се настоява за шестмесечен мораториум върху разработването на по-мощни системи за ИИ. Но той и други лидери на OpenAI са добавили имената си към изявление от едно изречение: „Намаляването на риска от изчезване на ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война.“ Олтман обяснява: „Казах: „Да, съгласен съм с това. Едноминутна дискусия.“

Както отбелязва един виден основател от Силициевата долина: „Рядко се случва някоя индустрия да вдигне ръка и да каже: „Ние ще бъдем краят на човечеството“ – и след това да продължи да работи по продукта с радост и ентусиазъм.“

OpenAI отхвърля тази критика. Олтман и екипът му казват, че работата и пускането на авангардни продукти е начинът за справяне с обществените рискове. Само чрез анализ на отговорите на милиони подкани от страна на потребителите на ChatGPT и GPT-4 те биха могли да получат знанията, необходими за да се подредят етично бъдещите продукти.

Въпреки това, тъй като компанията поема все повече задачи и посвещава повече енергия на търговски дейности, някои се питат доколко OpenAI може да се концентрира върху мисията – особено върху „намаляването на риска от изчезване [на човешкия вид]“. „Ако се замислите, те всъщност изграждат пет бизнеса“, казва един от ръководителите на индустрията за изкуствен интелект и ги изброява с пръсти. „Това са самият продукт, корпоративните отношения с Microsoft, екосистемата за разработчици и магазинът за приложения. И, о, да – те очевидно изпълняват и изследователска мисия в областта на AGI.“ След като е използвал всичките си пет пръста, той рециклира показалеца си, за да добави шести. „И, разбира се, правят и инвестиционен фонд“, казва той, като споменава проект на стойност 175 милиона долара за подпомагане на стартиращи компании, които искат да се възползват от технологията OpenAI. „Това са различни култури и всъщност те влизат в противоречие с изследователската мисия“.

Многократно питах изпълнителните директори на OpenAI как навличането на козината на продуктова компания се е отразило на нейната култура. Без да се провалят, те настояват, че въпреки преструктурирането с цел печалба, въпреки конкуренцията с Google, Meta и безброй стартъпи, мисията все още е централна. И все пак OpenAI се е променила. Технически може и да се ръководи от управителния съвет на организацията с нестопанска цел, но почти всички в компанията са вписани в счетоводната книга на организацията с нестопанска цел. В нея работят юристи, маркетолози, експерти по политика и дизайнери на потребителски интерфейси. OpenAI сключва договори със стотици модератори на съдържание, които обучават моделите ѝ на неподходящи или вредни отговори на подканите, предлагани от много милиони потребители. Продуктовите мениджъри и инженерите на компанията постоянно работят по актуализациите на продуктите ѝ и на всеки няколко седмици изглежда, че тя предлага на репортерите демонстрации – точно както други продуктово ориентирани компании от сектора на големите технологии. Офисите на компанията изглеждат като от списание Architectural Digest. Посещавал съм почти всички големи технологични компании в Силициевата долина и извън нея и нито една не превъзхожда възможностите за кафе във фоайето на централата на OpenAI в Сан Франциско.

Да не говорим пък за неща от такъв вид: Очевидно е, че „отвореността“, заложена в името на компанията, се е изместила от радикалната прозрачност, предложена при стартирането. Когато казвам това на Сатскевер, той свива рамене. „Явно времената са се променили“, казва той. Но предупреждава, че това не означава, че наградата не е същата. „Имате технологична трансформация от такава гаргантюанска, катаклизмична величина, че дори всички да дадем своя принос, успехът не е гарантиран. Но ако всичко се получи, можем да имаме доста невероятен живот.“

„Не мога да подчертая това достатъчно – нямахме генерален план“, казва Олтман. „Сякаш завивахме зад всеки ъгъл и си светехме с фенерче. Бяхме готови да преминем през лабиринта, за да стигнем до края.“ Макар че лабиринтът междувременно се е завъртял, целта не се е променила. „Все още имаме основната си мисия – вярваме, че безопасното AGI е това критично важно нещо, което светът не приема достатъчно сериозно.“

Междувременно OpenAI очевидно не бърза да разработи следващата версия на своя голям езиков модел. Трудно е да се повярва, но компанията настоява, че все още не е започнала работа по GPT-5 – продукт, за който хората, в зависимост от гледната си точка, или слюноотделят, или се страхуват. Очевидно OpenAI се бори с това как всъщност изглежда едно експоненциално мощно подобрение на сегашната ѝ технология. „Най-голямото нещо, което ни липсва, е предлагането на нови идеи“, казва Брокман. „Хубаво е да имаме нещо, което може да бъде виртуален асистент. Но това не е нашата мечта. Мечтата е да си помогнем при решаването на проблемите, които ние не можем да решим“.

Като се има предвид историята на OpenAI, може би този следващ голям набор от иновации ще трябва да почака, докато не настъпи друг пробив, толкова голям, колкото бяха трансформърите. Олтман се надява това да стане в OpenAI – „Искаме да бъдем най-добрата изследователска лаборатория в света“, казва той, но дори и да не стане, компанията му ще използва постиженията на другите, както е направила с работата на Google. „Много хора по света ще свършат важна работа“, казва той.

Също така би помогнало, ако генеративният изкуствен интелект не създаваше толкова много нови собствени проблеми. Например, моделите трябва да се обучават върху огромни масиви от данни; очевидно е, че най-мощните от тях биха погълнали практически целия интернет. Това не се харесва на някои творци и просто на хората, които неволно предоставят съдържание за тези набори от данни и в крайна сметка по някакъв начин допринасят за резултатите от ChatGPT. Том Рубин, елитен адвокат по интелектуална собственост, който официално се присъедини към OpenAI през март, е оптимист, че компанията в крайна сметка ще намери баланс, който да задоволи както собствените ѝ нужди, така и онези на творците – включително и на тези, като комика Сара Силвърман, които съдят OpenAI за това, че използва тяхното съдържание за обучение на моделите си. Един от пътищата, по които върви OpenAI, е партньорството с новинарски и фотографски агенции като Associated Press и Shutterstock, за да се осигури съдържание за моделите, без да се задават въпроси кой какво притежава.

Докато интервюирам Рубин, моят съвсем човешки ум, подвластен на разсейващи фактори, които никога не се срещат в магистърските програми, се увлича по дъгата на тази компания, която за осем кратки години се превърна от буксуваща група изследователи в прометеевски гигант, който промени света. Самият ѝ успех я е накарал да се превърне от новаторско усилие за постигане на научна цел в нещо, което прилича на стандартен еднорог от Силициевата долина, на път да се влее в пантеона на големите технологични компании, които влияят върху ежедневието ни. И ето ме тук, разговарям с един от ключовите ѝ служители – юрист – не за тежестите на невронните мрежи или компютърната инфраструктура, а за авторското право и справедливото използване. Чудя се дали този експерт по интелектуална собственост се е присъединил към мисията, подобно на търсещите свръхинтелигентност пътешественици, които първоначално управляваха компанията?

Рубин не се замисля, когато го питам дали вярва, че AGI ще се случи и дали е готов да го направи. „Дори не мога да отговоря на този въпрос“, казва той след известна пауза. Когато го притискам допълнително, той пояснява, че като адвокат по интелектуална собственост ускоряването на пътя към страшно интелигентни компютри не е негова работа. „От моята лична позиция това е нещо, което очаквам с нетърпение“, казва той накрая.

 

Източник

 

Стивън Леви пише за технологии повече от 30 години и сътрудничи на списание WIRED  от самото му създаване. Написал е седем книги, сред които „Хакери“, „Крипто“, „Изкуствен живот“, „Безумно велико“ (история на Macintosh), както и най-новата „In the Plex“ – окончателната история на Google.

 

Pin It

Прочетете още...