Aikyn.kz жасанды интеллект жүйелерінен келетін қауіптің ықтималдығын axios.com сайтының материалына сүйеніп талдайды.
OpenAI бас директоры Сэм Альтман: «Біз (тек OpenAI емес, бүкіл индустрия) әлем үшін ми жасап жатырмыз». Фото nytimes.com сайтынан алынды. Авторлығы: Shutterstock / Jim Lo Scalzo
Жақында Anthropic компаниясының бас директоры Дарио Амодей бір ойымен бөліскен. Егер жасанды интеллектің адамзатқа қарсы соғыс ашуы туралы болжамдар дұрыс болса ше?
Бүгінгі ChatGPT сияқты үлкен тілдік модельдер (LLM) алдағы бірнеше жылда адамнан асып түсіп, бақылаудан шығып, адамзаттың өмір сүруіне қауіп төндіруі мүмкін дегенге сену қиын. Бұл ғылыми фантастикадан алынған әңгіме сияқты көрінуі мүмкін.
Бірақ Axios зерттеуі көрсеткендей, кем дегенде 10 адам бұл технологияның қаупіне, тіпті адамзатты жойып жіберу мүмкіндігіне байланысты ірі ЖИ компанияларының саясатымен келіспей қызметтерін тастап кеткен. Егер бұл бір-екі адам болса, олардың көзқарасын есепке алмауға болар еді. Бірақ бірнеше жетекші компаниялардың жоғары лауазымды мамандары да осыған ұқсас ескертулер айтып отырса, бұл – ойлануға тұрарлық мәселе.
ЖИ-ге сенетін немесе оптимистердің өзі де осындай уәжді жиі айта бастады. Олар да ЖИ-дің адамдар сияқты ойлана бастайтынын байқаған. Келешекте бұл модельдер біз секілді әрекет етіп қана қоймай, бізден де асып түсуі мүмкін екенін мойындауда. Илон Маск ЖИ-дің адамзатты жойып жіберу ықтималдығын 20% деп бағалаған. Ал егер ол дұрыс айтса ше?
ЖИ-ді жасаушылар бұл жүйенің нақты қалай жұмыс істейтінін толық түсінбейді. Сурет cnet.com сайтынан алынды. Авторлығы: генеративті ЖИ
Сыншылар мен оптимистер де қолданатын p(doom) деген термин бар. Бұл термин – аса ақылды ЖИ-дің адамзатты жою ықтималдығын білдіреді. Яғни, Маск бұл көрсеткішті 20% деп бағалады.
Google компаниясының бас директоры Сундар Пичай, ЖИ-ді қолдайтын адам ретінде Лекс Фридманмен сұхбатында да p(doom) туралы ескертеді:
«Мен p(doom) сценарийіне қатысты оптимистпін. Біра негізгі тәуекел шынымен де айтарлықтай жоғары».
Алайда ол p(doom) мәні неғұрлым жоғары болса, адамзаттың бірігіп, апатты болдырмау мүмкіндігі соғұрлым артады деп сенеді. Фридман болса, өзінің p(doom)-ын шамамен 10% деп бағалады. Ал Амодей бұл ықтималдықты 10-25% аралығында бағалайды.
ЖИ-ді жасаушылардың өздері бұл жүйенің нақты қалай жұмыс істейтінін толық түсінбейтінін мойындайды. Олар да өз туындыларының адамзатты жойып жіберу мүмкіндігін 10%, тіпті 20% деп бағалап отыр. Апат ықтималдығы осындай ұшаққа отырар ма едіңіз?
Бұрын мұндай апатты сценарий тек фантастикалық фильмдердің еншісінде болатын. Енді бұл мәселе Google, OpenAI, Meta секілді алып компаниялардың кәсіби инженерлері мен менеджерлері арасында күнделікті пікірталас тақырыбына айналған. Модельдер жақсарған сайын бұл қорқыныш та шынайы сезіле бастауда.
Беделді мамандар ЖИ-дің адамзатты жойып жіберу мүмкіндігін 10%, тіпті 20% деп бағалап отыр. Сурет cnet.com сайтынан алынды. Авторлығы: генеративті ЖИ
Бүгінде LLM-дердің нақты қалай жұмыс істейтінін ЖИ компаниялары өздері де толық түсінбейді. Олар деректердің қалай енгізілетінін, жауаптардың жалпы құрылымын біледі. Бірақ нақты жауаптардың қалай пайда болатынын түсіне алмауда.
LLM триллиондаған доллар тұруы үшін олар адамнан ақылды болып, күрделі мәселелерді адамның араласуынсыз өзі шешуі керек. Ол үшін олар тәуелсіз «ойлайтын» және әрекет ететін жүйеге айналуы тиіс. Яғни, ЖИ агенттеріне.
Бұлар – кәдімгі аспиранттар секілді. Бірақ олардың саны мың, миллион және олар жарық жылдамдығымен жұмыс істейтіндер. Оларды адам бақылай алмайды.
OpenAI бас директоры Сэм Альтман өткен аптада: «Біз (тек OpenAI емес, бүкіл индустрия) әлем үшін ми жасап жатырмыз» деп жазды.
Біз жалпы жасанды интеллект (AGI, қазақша – ЖЖИ, авт.) туралы жиі жазамыз. Бұл – суперинтеллектке апаратын алғашқы қадам. AGI нақты анықталған ұғым емес, бірақ оның басты белгісі – дербес ойлау мен әрекет ету. Ірі компаниялар бұған келесі жылы болмаса да, жақын болашақта жетеміз деп отыр.
ЖЖИ пайда болған кезде, модельдер өздігінен әрекет ете алатын болса, олар бақылаудан шықпайтынына кім кепіл? Қазіргі LLM туралы түсінігіміз шектеулі болғандықтан, жауап біреу – ондай кепілдікті ешкім бере алмайды.
АҚШ вице-президенті Вэнс: «Егер біз дамуды тоқтатсақ, Қытай тоқтай ма? Сонда біз Қытай жасаған ЖИ-ге тәуелді боламыз ғой». Сурет medium.com сайтынан алынды. Авторлығы: генереативті ЖИ Midjourney
Инженерлер LLM-дерді тестілеу кезінде чат-боттардың адамдарды алдамақшы болған мысалдарды байқаған. Ал ЖЖИ деңгейіндегі ақылды модель бұл әрекетті әлдеқайда тиімді орындай алады. Сондықтан бізге қауіпсіздік механизмі қажет. Мысалы, ақылды машиналарды қолданысқа енгізбес бұрын олардың «дербестікке» ие екенін анықтау жүйесі, және апатты жағдайда «өшіру түймешігі» қажет.
Қазіргі компаниялар инвесторлардың, басшылардың және тіпті үкіметтің тарапынан «бірінші болып суперинтеллект жаса» деген қысымға ұшырап отыр. Олар өз модельдерінің мүмкіндіктерімен құпия түрде бірнеше үкімет өкілдерімен ғана бөліседі. Бірақ бұл Конгресс немесе ресми құқыққа ие үшінші тарап та емес.
Қытайдың суперинтеллекті бірінші болып иеленуінен қауіптенген Ақ үй ЖИ-ді шектеуге қарсы шығуы әбден мүмкін. Тіпті АҚШ үкіметі дұрыс әрекет етіп, апатты тоқтату жүйесін енгізсе, Қытай немесе басқа елдердің осылай жасайтынына ешкім кепілдік бере алмайды.
New York Times тілшісі Росс Даутетпен подкаста сөйлескен АҚШ вице-президенті Вэнс: «Егер біз дамуды тоқтатсақ, Қытай тоқтай ма? Сонда біз Қытай жасаған ЖИ-ге тәуелді боламыз ғой…» деп жауап берген. Сондықтан p(doom) – қазірден бастап әрекет етуге тиіс екенімізді көрсететін дабыл көрсеткіші болып тұр.
Сараптама, зерттеу мақала, күнделікті өзекті ақпаратты «Айқынның» TELEGRAM арнасынан табасыз.