Компьютерлер, Ақпараттық технологиялар
Ғалымдар мен инженерлер жасанды интеллект қауіптілігі туралы ескертеді
Жасанды интеллектті ұқыпты қарауға шақырған ашық хатқа көптеген адамдар, соның ішінде жетекші ғалымдар мен ғалымдар қол қойды. Авторлар жасанды интеллект біздің бақылауымыздан тыс қалмауы керек деп санайды.
Жасанды интеллект туралы алаңдаушылық
«Терминатор» сияқты фильмдер роботтар біздің командаларды орындауды тоқтатқан кезде не болатынын толық түсінік береді. Сондықтан, көптеген адамдардың, соның ішінде ғалымдардың қорқыныштары негізсіз деп айтуға болмайды. Компьютерлік технологияларды дамыту қарқынын ескере отырып, біз осы мәселелерді шешу қажет болғанда, біз жақынырақ боламыз.
Желтоқсан айында Стивен Хокинг осы тақырып бойынша пікірталастың жаңа толқынын бастады. Хокингтің қарым-қатынас қабілеті озық компьютерлік технологияға байланысты екенін ескере отырып, оны Луддитт деп санауға болмайды, бірақ оның ойлары, сөзсіз, назар аударады.
Хат Болашақ Институты бастамашылық етті - бұл өз міндеттерін «адамзат алдында кездесетін экзистенциалды тәуекелдерді азайту» ретінде сипаттайтын ерікті ұйым.
Хатта не бар?
Ашық хатта осы салаларда зертханалық зерттеулер мен экономикалық құнды технологияларды дамытуға арналған табалдырықтан өтуге болады, бірақ өнімділіктің аздап жақсаруы тіпті көп ақша жұмсайды.
Авторлар біздің жасанды интеллект жүйелеріміз тек қана адамдарға зиян келтірмеуі және олардан қалаған нәрселерді ғана істеуі керек деп есептейді. Сондай-ақ, хат авторлардың пікірі бойынша қоғамға барынша пайда әкелетін зерттеудің басым бағыттарын белгілейді.
Мүмкін сіз қосылсаңыз болады?
Кез келген адам осы хатқа қол қоя алады, ал мыңдаған адамдар қазірдің өзінде осындай әрекетті жасады. Көптеген қол қоюшылар қарапайым адамдар болса да, Элон Маск және Хокинг сияқты атаулар оңай танымал. Тізімдегі көптеген басқа тұлғалар АТ және философия саласындағы жетекші зерттеушілер, соның ішінде IBM тобы.
Similar articles
Trending Now