„გამოგონილი დაავადება და რეალური რეკომენდაციები“ — როცა ხელოვნური ინტელექტი და მეცნიერება ერთად შეცდა

მსოფლიოში პირველი ხელოვნური ინტელექტით მართული საავადმყოფო
#post_seo_title

„გამოგონილი დაავადება და რეალური რისკები“ — როგორ აჩენს ხელოვნური ინტელექტი სანდოობის ილუზიას მედიცინაში

შესავალი — ანალიტიკური კომენტარი

ციფრულ ეპოქაში, სადაც ინფორმაცია სწრაფად ვრცელდება და ტექნოლოგიური ინსტრუმენტები ფართოდ გამოიყენება, მედიცინისა და საზოგადოებრივი ჯანდაცვის ერთ-ერთი მთავარი საყრდენი — სანდო ინფორმაცია — ახალი გამოწვევის წინაშე დგას. ხელოვნური ინტელექტის გამოყენებამ გაამარტივა მონაცემებზე წვდომა, თუმცა ამავე დროს წარმოშვა ახალი რისკები, რომლებიც უკავშირდება არაზუსტ, მაგრამ დამაჯერებელ პასუხებს.

ბოლო შემთხვევა, სადაც სპეციალურად შექმნილი არარსებული დაავადება („ბიქსონიმანია“) ხელოვნურმა ინტელექტმა რეალურ დიაგნოზად „აღიარა“, ნათლად აჩვენებს, რომ პრობლემა არ არის მხოლოდ ტექნოლოგიური. იგი ეხება მთლიან სისტემას — ინფორმაციის წარმოებას, გავრცელებას და შეფასებას. ასეთი მოვლენები განსაკუთრებულ მნიშვნელობას იძენს საზოგადოებრივი ჯანდაცვისთვის, რადგან მცდარი ინფორმაცია პირდაპირ შეიძლება აისახოს პაციენტთა ქცევაზე, გადაწყვეტილებებსა და ჯანმრთელობის შედეგებზე [1].

პრობლემის აღწერა

აღწერილი შემთხვევის არსი მდგომარეობს იმაში, რომ მკვლევრებმა შექმნეს არარსებული დაავადება და აღწერეს იგი ფორმალურად ისე, როგორც რეალური სამეცნიერო სტატია. ამ ტექსტს ჰქონდა ყველა ის მახასიათებელი, რაც დამახასიათებელია აკადემიური ნაშრომისთვის — სტრუქტურა, ტერმინოლოგია, ლოგიკური არგუმენტაცია.

შემდეგ ეტაპზე ხელოვნური ინტელექტის სისტემებმა ეს ინფორმაცია აღიქვეს როგორც სანდო წყარო და დაიწყეს მისი გამოყენება:
– დაავადების „დიაგნოსტირება“;
– ექიმთან მიმართვის რეკომენდაცია;
– კლინიკური რჩევების გენერირება.

მნიშვნელოვანია ხაზგასმა, რომ პრობლემა მხოლოდ ტექნოლოგიური არ არის. არსებული მტკიცებულებები მიუთითებს, რომ მსგავსი ტიპის ყალბი ან არაზუსტი ინფორმაცია ზოგჯერ აღწევს აკადემიურ სივრცეშიც — ხდება მისი ციტირება და შემდგომში რეტრაქცია, რაც მეცნიერებაში ნდობის საკითხს აყენებს [3].

ქართველი მკითხველისთვის ეს თემა მნიშვნელოვანია, რადგან ჯანმრთელობასთან დაკავშირებული ინფორმაციის დიდი ნაწილი დღეს ონლაინ წყაროებიდან მოდის, სადაც ხარისხის კონტროლი განსხვავებულია.

სამეცნიერო და კლინიკური ანალიზი

ხელოვნური ინტელექტის სისტემები მუშაობს სტატისტიკური მოდელირების პრინციპზე და არ ფლობს „სიმართლის“ შეფასების უნარს იმ ფორმით, როგორც ამას ადამიანი აკეთებს. ისინი აფასებენ ტექსტის სტრუქტურას, ენობრივ სიზუსტესა და შაბლონურ შესაბამისობას.

  ძაღლის აცრა არ არის გარანტია -  აცრილი ძაღლის ნაკბენის შემდეგაც საჭიროა აცრა

კვლევები აჩვენებს, რომ როდესაც ტექსტი ფორმალურად ჰგავს სამეცნიერო ნაშრომს — აქვს შესაბამისი ტერმინოლოგია, სტრუქტურა და არგუმენტაცია — იზრდება იმის ალბათობა, რომ ხელოვნური ინტელექტი მას აღიქვამს როგორც სანდოს და შექმნის ე.წ. „ჰალუცინაციებს“ — დამაჯერებელ, მაგრამ არასწორ პასუხებს [2].

დეპრესიის მაგალითის მსგავსად, სადაც ზედმეტად გამარტივებული თეორია („ქიმიური დისბალანსი“) რეალობას სრულად ვერ ასახავდა, აქაც ვხედავთ პრობლემის გამარტივებას: ფორმა აღიქმება შინაარსის სინონიმად.

კლინიკური თვალსაზრისით, ეს განსაკუთრებით მნიშვნელოვანია, რადგან პაციენტებმა შეიძლება მიიღონ რეკომენდაციები, რომლებიც არ ეფუძნება რეალურ მტკიცებულებებს. ეს ზრდის არასწორი თვითდიაგნოსტირების, არასათანადო მკურნალობის ან დაგვიანებული სამედიცინო დახმარების რისკს.

სტატისტიკა და მტკიცებულებები

მეცნიერულ ლიტერატურაში დიდი ხანია განიხილება საკითხი, რომ სამეცნიერო პუბლიკაციების ნაწილი შესაძლოა შეიცავდეს არაზუსტ ან გადაჭარბებულ დასკვნებს. ერთ-ერთი ყველაზე ხშირად ციტირებული ნაშრომი მიუთითებს, რომ მნიშვნელოვანი ნაწილი გამოქვეყნებული კვლევებისა შესაძლოა არასწორი იყოს მეთოდოლოგიური ან სისტემური პრობლემების გამო [4].

თანამედროვე კვლევები ასევე მიუთითებს, რომ ხელოვნური ინტელექტის მიერ გენერირებული პასუხების სიზუსტე მნიშვნელოვნად არის დამოკიდებული გამოყენებული წყაროების ხარისხზე და ფორმატზე. პროფესიონალურად ფორმატირებული ტექსტები უფრო მაღალი სანდოობის შთაბეჭდილებას ქმნის, რაც ზრდის შეცდომის გავრცელების ალბათობას [2].

ეს მონაცემები აჩვენებს, რომ პრობლემა არ არის ერთჯერადი შემთხვევა, არამედ სისტემური გამოწვევა, რომელიც მოითხოვს როგორც ტექნოლოგიურ, ისე აკადემიურ და საგანმანათლებლო რეაგირებას.

საერთაშორისო გამოცდილება

საერთაშორისო სამეცნიერო საზოგადოება აქტიურად განიხილავს ხელოვნური ინტელექტის გამოყენების ეთიკურ და პრაქტიკულ საკითხებს. ჟურნალ „Nature“-ის რედაქციული მასალები ხაზს უსვამს, რომ პუბლიკაციების რეტრაქცია და მონაცემთა სანდოობა თანამედროვე მეცნიერების ერთ-ერთი მთავარი გამოწვევაა [3].

ამავე დროს, სხვადასხვა ინსტიტუტი მუშაობს იმაზე, რომ განისაზღვროს სტანდარტები ხელოვნური ინტელექტის გამოყენებისთვის მედიცინაში. ძირითადი პრინციპებია:
– გამჭვირვალობა;
– წყაროების გადამოწმება;
– ადამიანის ჩართულობა საბოლოო გადაწყვეტილებაში;
– მტკიცებულებაზე დაფუძნებული მიდგომა.

საერთაშორისო გამოცდილება ცხადყოფს, რომ ტექნოლოგიის განვითარება უნდა ახლდეს შესაბამისი რეგულაციებითა და განათლებით, რათა მინიმუმამდე შემცირდეს რისკები.

  „Neuralink-ის ახალი იმპლანტი უსინათლო ადამიანებს მხედველობას დაუბრუნებს“

საქართველოს კონტექსტი

საქართველოში, სადაც ციფრული ინფორმაცია სულ უფრო მნიშვნელოვან როლს ასრულებს, აუცილებელია კრიტიკული აზროვნების განვითარება ჯანმრთელობის თემებზე.

სანდო ინფორმაციის გავრცელებაში მნიშვნელოვანი როლი აქვს ისეთ პლატფორმებს, როგორიცაა https://www.sheniekimi.ge და https://www.publichealth.ge, რომლებიც მიზნად ისახავს მოსახლეობის ინფორმირებას მტკიცებულებებზე დაფუძნებული მიდგომით.

აკადემიური სივრცის გაძლიერებისთვის მნიშვნელოვანია https://www.gmj.ge, ხოლო ხარისხისა და სტანდარტების უზრუნველყოფის კუთხით — https://www.certificate.ge.

საქართველოსთვის პრიორიტეტულია:
– ციფრული ჯანმრთელობის განათლების გაძლიერება;
– ექიმებისა და პაციენტების ინფორმირება ხელოვნური ინტელექტის შესაძლებლობებსა და შეზღუდვებზე;
– სანდო წყაროების ხელმისაწვდომობის გაზრდა.

მითები და რეალობა

მითი: თუ ინფორმაცია „სამეცნიეროდ გამოიყურება“, ის სანდოა.
რეალობა: ფორმა არ არის სანდოობის გარანტია; აუცილებელია წყაროებისა და მტკიცებულებების გადამოწმება.

მითი: ხელოვნური ინტელექტი ყოველთვის სწორ პასუხს იძლევა.
რეალობა: იგი ქმნის პასუხებს სტატისტიკური შაბლონების მიხედვით და შეიძლება გენერირებდეს არასწორ ინფორმაციას.

მითი: ციტირებული სტატია ავტომატურად სანდოა.
რეალობა: ციტირება არ ნიშნავს სიზუსტეს; შესაძლებელია არაზუსტი ნაშრომების გავრცელება და შემდგომი რეტრაქცია.

ხშირად დასმული კითხვები (Q&A)

რატომ ქმნის ხელოვნური ინტელექტი არასწორ პასუხებს?
იმიტომ, რომ იგი არ ამოწმებს სიმართლეს, არამედ პროგნოზირებს ტექსტს არსებული მონაცემების საფუძველზე.

როგორ უნდა შევაფასოთ ინფორმაცია?
აუცილებელია წყაროს გადამოწმება, ორიგინალური კვლევის მოძიება და ავტორიტეტული ინსტიტუტების გამოყენება.

არის თუ არა ხელოვნური ინტელექტი საშიში მედიცინაში?
ის არის ძლიერი ინსტრუმენტი, მაგრამ მისი გამოყენება უნდა იყოს კონტროლირებული და კრიტიკულად შეფასებული.

რა როლი აქვს ექიმს ასეთ პირობებში?
ექიმი რჩება საბოლოო გადაწყვეტილების მიმღებად და პასუხისმგებელია მტკიცებულებებზე დაფუძნებულ შეფასებაზე.

დასკვნა — საზოგადოებრივი ჯანდაცვის პერსპექტივით

ხელოვნური ინტელექტისა და მეცნიერების ურთიერთქმედება ქმნის როგორც შესაძლებლობებს, ისე რისკებს. „გამოგონილი დაავადების“ მაგალითი გვაჩვენებს, რომ სანდოობის ილუზია შეიძლება წარმოიშვას მაშინაც კი, როცა ინფორმაცია ფორმალურად სწორად არის წარმოდგენილი.

საზოგადოებრივი ჯანდაცვის მთავარი ამოცანაა უზრუნველყოს, რომ ინფორმაცია იყოს არა მხოლოდ ხელმისაწვდომი, არამედ სანდოც. ამისათვის საჭიროა კრიტიკული აზროვნება, განათლება და მტკიცებულებებზე დაფუძნებული მიდგომა.

  რა არის დუშენის კუნთოვანი დისტროფია და როგორ ებრძვის მას მედიცინა - სიმპტომები, დიაგნოსტიკა და მკურნალობა

საბოლოოდ, ტექნოლოგია ვერ ჩაანაცვლებს პროფესიულ პასუხისმგებლობას. სანდო ინფორმაციის დაცვა არის ის საფუძველი, რომელზეც დგას თანამედროვე მედიცინა და რომლის დარღვევაც პირდაპირ აისახება პაციენტის უსაფრთხოებაზე.

წყაროები

  1. Stokel-Walker C. Scientists invented a fake disease. AI told people it was real. New Scientist. 2026. Available from: https://www.newscientist.com
  2. Omar M, et al. Professional medical formatting increases AI hallucination risk. Harvard Medical School. 2025.
  3. Nature Editorial. Retractions and integrity in scientific publishing. Nature. 2024. Available from: https://www.nature.com
  4. Ioannidis JPA. Why most published research findings are false. PLoS Med. 2005. Available from: https://journals.plos.org/plosmedicine/article?id=10.1371/journal.pmed.0020124

author avatar
© საქართველოს საზოგადოებრივი ჯანდაცვის ინსტიტუტი
სანდო, მტკიცებულებებზე დაფუძნებული ინფორმაცია | მთავარი რედაქტორი: პროფესორი გიორგი ფხაკაძე (MD, MPH, PhD)

დატოვე პასუხი

გთხოვთ, მიუთითოთ თქვენი კომენტარი!
გთხოვთ, შეიყვანოთ თქვენი სახელი აქ