ნათარგმნია ხელოვნური ინტელექტის მიერ
ხელოვნური სუპერინტელექტი ჯერ არ არსებობს. მაგრამ თუ ის შეიქმნება, როგორ ვასწავლოთ მას, რომ კაცობრიობა არ გაანადგუროს? გერმანული პოდკასტი „ველური ველური ვები“(„Wild Wild Web“) საუბრობს აქტივისტებზე, ვინც ამ სცენარს სერიოზულად ეკიდება.
24 წლის ევანდერ ჰამერი ვიურცბურგში სტუდენტი-მასწავლებელია. თუმცა, ამ დღეებში, მას სტუდენტური ცხოვრებისთვის არ სცალია. დროის უმეტეს ნაწილს ის ერთ თემას, – ხელოვნური ინტელექტისგან მომდინარე აპოკალიფსის საფრთხეს -უთმობს.
აქტივიზმი აპოკალიფსის საფრთხის შემცევლი ხელოვნური ინტელექტი წინააღმდეგ
„ჩვენთვის ყველაზე დიდი ეგზისტენციალური საფრთხეა ხელოვნური ინტელექტი, რომელიც კაცობრიობისგან განსხვავებულ მიზნებს ისახავს. განსხვავებული მიზნები მაინცადამაინც იმას არ ნიშნავს, რომ ხელოვნურმა სუპერინტელექტმა კაცობრიობის განადგურების ბოროტი გეგმა უნდა განახორციელოს, როგორც ეს ტერმინატორის შესახებ ფილმებშია. უბრალოდ, საკმარისია, რომ მან ამ პროექტის განხორციელება დაიწყოს, ადამიანები მაშინვე ჩაერევიან. თუმცა, გაჩნდება ახალი პრობლემა – არავის ეცოდინება, როგორ აიძულოს ხელოვნური ინტელექტი, აკეთოს ზუსტად ის, რაც ჩვენ გვინდა“, – წერს ევანდერ ჰამერი„ბავარიის რადიოს“ (BR)„Wild Wild Web“-ის პოდკასტში, რომლის სახელსწოდებაა „ისტორიები ინტერნეტიდან.“
ევანდერი ახლა ფასილიტატორის როლშია, გამოდის კონფერენციებზე და ცდილობს, ხელოვნურ ინტელექტთან დაკავშირებული რისკების შესახებ ხალხს თავისი შეხედულებები მიაწოდოს. მისი მიზანია, სანამ ძალიან გვიან არ არის, სხვა ადამიანებთან ერთად, ხელოვნურ სუპერინტელექტზე კონტროლის დაწესებაზე იზრუნოს.
„გაწონასწორების პრობლემა“
აქტივიზმი, რომელიც ხელოვნური ინტელექტის უსაფრთხოებას ისახავს მიზნად,„გაწონასწორების პრობლემას“ ეფუძნება. ეს არის ტექნიკური პრობლემის ტერმინი, რომელიც დაკავშირებულია იმასთან, თუ როგორ აიძულონ სუპერგანვითარებული ხელოვნური ინტელექტი, რომ თავისი ქმედებებით ადამიანებისთვის ზიანის მიყენებას თავი აარიდოს. ყველასთვის კარგად არის ცნობილი სააზროვნო ექსპერიმენტი სახელწოდებით, „ქაღალდების სამაგრების მაქსიმიზატორი“ („Paperclip Maximizer“): ჰიპოთეტურმა ხელოვნურმა სუპერინტელექტმა, რომელსაც მიზნად დაუსახეს რაც შეიძლება მეტი ქაღალდების სამაგრის („სკრეპის“) დამზადება, ამ ამოცანის შესასრულებლად, შეიძლება მთელი სამყარო (მათ შორის ჩვენც, ადამიანები) დააქუცმაცოს და ქაღალდის სამაგრებად აქციოს“.
„გაწონასწორების პრობლემა“ ჯერ კიდევ არ არის მოგვარებული და ეს ბუნებრივია. ჩვენ ვსაუბრობთ ტექნოლოგიაზე, რომელიც ჯერ არ არსებობს – ეს არის ხელოვნური სუპერინტელექტუალური, რომელსაც გეომეტრიული პროგრესიით შეუძლია საკუთარი თავის გაუმჯობესება და ინტელექტითა და ძალით ბევრჯერ აღემატება ნებისმიერ ადამიანს.
ხელოვნური ინტელექტის ექსპერტები ვერ თანხმდებიან იმაზე, თუ როდის შეიძლება გამოჩნდეს ასეთი სუპერძალა და საერთოდ, შესაძლებელია თუ არა მისი შექმნა. ასევე მიმდინარეობს დებატები იმის შესახებ, თუ რა რისკს შეიცავს იგი. თუმცა, უსაფრთხოების აქტივისტები, მათ შორის – ევანდერ ჰამერი, მიიჩნევენ, რომ სჯობს, თავი ზედმეტად დაიზღვიო, ვიდრე მოგვიანებით ინანო.
კავშირი ხელოვნურ სუპერინტელექტსა და ბიოლოგიურ იარაღს შორის
ხელოვნური სუპერინტელექტი და „გაწონასორების პრობლემა“ სილიკონის ველზე, უკვე რამდენიმე წელია, პოპულარული სასაუბრო თემაა. ხელოვნური ინტელექტის ექსპერტები და დეველოპერები განიხილავენ „p(doom)“-ს – სიდიდეს, რომელიც აჩვენებს, თუ რამდენად რეალურია ხელოვნური ინტელექტისგან მომდინარე კატასტროფა. ასევე განხილვის თემაა, შეიძლება თუ არა ფართო დიაპაზონის მქონე ხელოვნური ინტელექტის მოდელების ექსპონენციალური ზრდა მომავალშიც გაგრძელდეს.
„მე სერიოზულად ვარ შეშფოთებული, რადგან ვშიშობ, რომ მომავალში სამყარო შეიძლება რელსებიდან გადავიდეს, თუ ყველაფერი იგივე სულისკვეთებით გაგრძელდება“ – ამბობს 25 წლის გერმანელი, ლიზა ტიერგარტი, რომელიც კალიფორნიაში, მექანიკური ინტელექტის კვლევით ინსტიტუტში (MIRI) ხელოვნური ინტელექტის უსაფრთხოების მკვლევარად მუშაობს (MIRI ხელოვნური ინტელექტის უსაფრთხოების პრევენციის ერთ-ერთ მთავარ ინსტიტუტად მიიჩნევა).
ტიერგარტი განაგრძობს: „ჩვენ მხოლოდ ხელოვნური სუპერინტელექტის შექმნის სცენარი არ უნდა გვაშფოთებდეს. მალე ამ ფაქტს შეიძლება ახალი ბიოლოგიური იარაღის შექმნა მოჰყვეს. კრიმინალებმა ამის გაკეთება, შესაძლოა, სწორედ ხელოვნურ სუპერინტელექტს მოსთხოვონ. სიურპრიზიც ეს იქნება – არავის ეცოდინება, ამ ახალ იარაღს რა დაუპირისპიროს“.
რამდენად დიდია საფრთხე სინამდვილეში?
ხელოვნური ინტელექტის შესაძლებლობებით „შეშინებული“ ექსპერტების ბანაკი არაერთხელ გაუკრიტიკებიათ. მათ იმაში ადანაშაულებენ, რომ სამომავლო ჰიპოთეტურ რისკზე ფოკუსირებით, აწმყოში არსებულ რეალურ რისკებს ჩრდილავენ.
საბოლოო ჯამში, ხელოვნური ინტელექტის ძალიან ცოტა ექსპერტი მიიჩნევს, რომ ხელოვნური ინტელექტიდან მომდინარე აპოკალიფსის რისკი ნამდვილად არსებობს. თუმცა, იმ პირობებში, როდესაც ხელოვნური ინტელექტის ტექნოლოგიები მუდმივად იხვეწება და ახალ სერვისებს გვთავაზობს, მომავლის ზუსტად პროგნოზირება სულ უფრო რთული ხდება.
მასალის გამოყენების პირობები