|
Шектен тыс саналы зерде технологиясы адамзат өркениетіне қауіпті деп танылды
|
2023 жылы елдер мен ғалымдар жасанды зерде технологиясын жетілдіруге қатысты уақытша кідіріс жарияланды. Ал бұл жолы АІ-ге толық тыйым салу туралы ұсыныс айтылып жатыр. Бұл жайында islam.kz порталы АІ технологиясын жетілдіруге біржола тыйым салу туралы петиция жарияланған Future of Life Institute сайтына сілтеме жасай отырып мәлім етелі. Бүгінгі таңда АІ әлемі жолайрықта тұр. Бизнесті жүргізуді жеңілдететін, ауруларды емдеуде пайдасы ұшан-теңіз, т.б. қызметтерімен танымал жасанды зердені одан ары жетілдіруді жақтаған компаниялар пайда үшін адамнан да ақылды жүйе құруға талпынып жатыр. Бұл талпыныс алдағы уақытта адамзаттың өзіне қатерлі. Тіпті, табаны күректей отыз жыл бойы жасанды зердемен айналысқан, АІ технологиясының өкіл әкесі атанған Жон Маккартимен бірге жұмыс істеген Марио Ривердің өзі компаниялардың талпынысына наразылық білдіріп отыр. Аса ақылды жүйе - бүгінгі таңда адамзат игілігін көріп отырған чат-бот немесе дата-орталықтар сияқты емес. Бұл - стратегиядан бастап өнертабысқа дейінгі барлық адамның әлеуетін он орап алатын технология. Ірі компаниялар қаржының көзіне немесе мөлшеріне қарамай молынан инвестиция құюға әзір мұндай жүйе үшін. Алайда, адамзат мұндай жүйемен қалай жұмыс істеуді білмейді. Аса қуатты ақылға ие жүйе климаттың өзгеруін тоқтату міндетін жүктеңіз немесе осындай тапсырма беріңіз. Қисынды ма? Иә. Бірақ ол ең жақсы тәсіл - климат дағдарысына тікелей себеп болып отырған адамзатты, адамзатты асырайтын өндірістің басты көздерін жою деп шешуі мүмкін. Сондай-ақ, оған адамды бақытты етуді тапсырсаңыз, ол бізді цифрлы тұзақтағыға ұқсас мәңгілік ойын-сауық иіріміне тартады. Бар кілтипан «машинаның зұлымдығында» емес, ол тым ақылды және біздің қажеттіліктерімізді елемей, бұйрықтарды тура мағынасында қабылдайды немесе орындайды. Осылайша адамзат өзі де білетін, алайда, шешуге қабілетсіз міндеттерді адамзаттың қажеттілігін ескермей орындауды рационалды жол деп біледі. Ең басты қауіп - адамның бақылауынан шығып кетеді, әдейі емес, адамнан жылдам әрекет ететіндіктен. Адам ойланып-толғанып болғанша мұндай технология өз кодын қайта жазып тастайды. Таяуда АІ қауіпсіздігін қадағалайтын Future of Life Institute ұйымы аса қуатты ақыл жүйесін әзірлеуге тыйым салу туралы мәлімдеме жариялады. «Біз аса қуатты ақыл жүйесін әзірлеуге тыйым салуға шақырамыз, ол оның қауіпсіз және бақыланатын жүзеге асырылуына қатысты кең ғылыми консенсусқа қол жеткізілмейінше, сондай-ақ, күшті қоғамдық қолдауға қол жеткізілмейінше бұл тыйымның күші жойылмауы тиіс», - делінген мәтінде. Ал енді бұл петицияға кімдер қол қойғанын қараңыз: олардың арасында АІ технологиясының негізін қалаушылар - Йошуа Бенжио мен Жеф Хинтон, Калифорнияның Беркли университетіндегі Стюарт Рассел сияқты әәлемге әйгілі бар, олар АІ-дың шешім қабылдау барысын зерттеумен шұғылданады. Apple компаниясының негізін бірге қалаған Стив Возняк пен Virgin компаниясынан Ричард Брэнсон да бар. Саясаткерлерге келсек, Америка құрама штаттырының ұлттық қауіпсіздік жөніндегі бұрынғы кеңесшісі Сьюзан Райстан бастап, Біріккен штаб бастықтары комитетінің бұрынғы басшысы Майк Малленге дейінгі тұлғалар кездеседі. Бұл петицияға ойламаған жерден Стив Бэннон, Гленн Бек, Will.I.am әртісі және тарихшы Йуала Ной Харари, адамзаттың болашағы туралы кітаптардың авторы қосылды. Бұрын адамзатты жасанды зердеге қатысьы басқа мәселе толғандыратын еді - жұмыс орнын тартып ала ма деген қауіп болатын. Ал аса қуатты ақыл жүйесі мүлдем басқа ұғймы екенін көбісі әлі сезіне бермейді. Олардың басты қатері - адамзатсыз өздері қабылдайды шешімді. Олардың шешімі адамзатқа пайдалы ма, қауіпті ме, адамзатпен санаспайды. Дербес жүйе. Жасанды зерде адамзаттың тағдырын шешетін жүйе емес, адамға көмекші болатын жүйе болғаны керек.