ხელოვნური ინტელექტი მედიცინაში — შესაძლებლობები, შეზღუდვები და პაციენტის უსაფრთხოება
შესავალი — ანალიტიკური კომენტარი
ხელოვნური ინტელექტი თანამედროვე მედიცინის ყველაზე ინტენსიურად განვითარებადი სფეროა. გამოსახულების ანალიზიდან დაწყებული, კლინიკური გადაწყვეტილების მხარდაჭერითა და წამლის აღმოჩენის ოპტიმიზაციით დამთავრებული — ეს ტექნოლოგია ჯანდაცვის სისტემაში სწრაფად ვრცელდება. სამეცნიერო საზოგადოება, კლინიცისტები და მარეგულირებელი ორგანოები ამავე დროს ახდენენ მისი ზუსტი შესაძლებლობებისა და შეზღუდვების შეფასებას — ამ ბალანსის ზუსტი გაგება კი კრიტიკული მნიშვნელობის მატარებელია [1,2].
ხელოვნური ინტელექტის მედიცინაში ინტეგრაციის ამბავი ორი, ხშირად ურთიერთსაპირისპირო ნარატივით ხასიათდება: ერთი მხრივ — გარდამტეხი ტექნოლოგიური პოტენციალი, ეფექტიანობის ზრდა და ადამიანური შეცდომის შემცირება; მეორე მხრივ — მეთოდოლოგიური სისუსტეები, ალგორითმული მიკერძოება, გაუმჭვირვალობა და პაციენტის უსაფრთხოებასთან დაკავშირებული სერიოზული კითხვები [3,4]. სანდო ინფორმაციის მოძიება ამ სფეროში შეგიძლიათ www.sheniekimi.ge-ზე, სადაც კლინიკური სფეროს ახალი მიგნებები ქართველი მკითხველისთვის ხელმისაწვდომია.
პრობლემის აღწერა
ხელოვნური ინტელექტი მედიცინაში მრავალი გზით გამოიყენება: სამედიცინო გამოსახულების (მაგ. რენტგენი, ტომოგრაფია, ულტრაბგერა) ანალიზი, სიმსივნის ადრეული გამოვლენა, პაციენტის მდგომარეობის პროგნოზირება, კლინიკური კვლევების ოპტიმიზაცია და ელექტრონული სამედიცინო ჩანაწერების დამუშავება. 2024 წლის მდგომარეობით, მარტო ამერიკის სამედიცინო პრეპარატებისა და საკვებ პროდუქტთა სამსახურმა (FDA) 882 ხელოვნური ინტელექტის გამოყენებაზე დაფუძნებული სამედიცინო მოწყობილობა დაამტკიცა [5].
ქართველი მკითხველისთვის ეს თემა სამ განსხვავებულ კუთხით არის მნიშვნელოვანი. პირველი — ჯანდაცვის სისტემის დიგიტალიზაცია: საქართველო ასევე ნელ-ნელა ინერგავს ციფრულ ინსტრუმენტებს სამედიცინო პრაქტიკაში. მეორე — საერთაშორისო კვლევებზე ნდობა: ქართული სამედიცინო პრაქტიკა სულ უფრო ეყრდნობა საერთაშორისო მტკიცებულებებს, მათ შორის ისეთებს, რომლებშიც ხელოვნური ინტელექტი გამოიყენება. მესამე — პაციენტის ინფორმირებულობა: ხელოვნური ინტელექტი ამ ეტაპზე კლინიკური პრაქტიკის ნაწილი ხდება და პაციენტს უნდა ჰქონდეს შესაძლებლობა გაიგოს, სად და როგორ გამოიყენება ეს ტექნოლოგია მის მდგომარეობასთან დაკავშირებით [6].
სამეცნიერო და კლინიკური ანალიზი
ხელოვნური ინტელექტის სამედიცინო სისტემების ანალიზი მოითხოვს ბიოლოგიური და ტექნოლოგიური ლოგიკის ზუსტ გამიჯვნას. ადამიანი-ექიმი კლინიკურ გადაწყვეტილებებს იღებს სიტუაციური მსჯელობის, გამოცდილების, ეთიკური განსჯისა და პაციენტის ინდივიდუალური კონტექსტის გათვალისწინებით. ხელოვნური ინტელექტის სისტემა კი ოპერირებს სტატისტიკური კორელაციებით — ის ამოიცნობს ნიმუშებს დიდ მონაცემთა ბაზებში, მაგრამ ეს არ ნიშნავს მიზეზ-შედეგობრივი კავშირების გაგებას [3].
კლინიკური კვლევების გადასახედიდან, ხელოვნური ინტელექტის სისტემები ხშირად ტესტირდება კონტროლირებულ, ე.წ. „ოქროს სტანდარტის” გარემოებებში, სადაც მონაცემების ხარისხი, სისრულე და სიმრავლე იდეალურია. ანალიზი ადასტურებს, რომ ხელოვნური ინტელექტის ინტეგრაცია კლინიკური კვლევების სფეროში ამაღლებს პაციენტების ჩართულობის მაჩვენებელს 65%-ით, ხოლო პროგნოზული მოდელები კვლევის შედეგების პროგნოზირებაში 85%-იანი სიზუსტით ხასიათდება, მაგრამ ამავე დროს სერიოზული დაბრკოლებები გამოვლინდა: მონაცემთა ურთიერთშეთავსადობა, მარეგულირებელი გაურკვევლობა, ალგორითმული მიკერძოება და დაბალი ნდობა ამ ინსტრუმენტებისადმი. [1]
ეს ნიშნავს, რომ ლაბორატორიაში ეფექტური სისტემა შეიძლება განსხვავებულად მუშაობდეს რეალურ კლინიკურ პრაქტიკაში, სადაც პაციენტები ჰეტეროგენულნი არიან, მონაცემები — არასრული, და გარემო — ცვალებადი [2]. კლინიცისტებმა ეს ფუნდამენტური სხვაობა გათვალისწინება სჭირდებათ ნებისმიერი ხელოვნური ინტელექტის სისტემის კლინიკურ პრაქტიკაში გამოყენებამდე.
სტატისტიკა და მტკიცებულებები
ხელოვნური ინტელექტის სამედიცინო სისტემების გამჭვირვალობის სფეროში ჩატარებულმა კვლევამ, რომელიც FDA-ს მიერ 1995-2023 წლებში დამტკიცებული 692 ხელოვნური ინტელექტის სამედიცინო მოწყობილობას მოიცავდა, მნიშვნელოვანი ხარვეზები გამოავლინა. დამტკიცებული მოწყობილობების მხოლოდ 3.6%-მა მიუთითა რასა და ეთნიკური კუთვნილება, 99.1%-მა ვერ წარადგინა სოციო-ეკონომიკური მონაცემები, ხოლო 81.6%-მა კვლევის მონაწილეთა ასაკის შესახებ ინფორმაცია არ გაამჟღავნა. [4]
ეს ციფრები მნიშვნელოვანია პრაქტიკული კუთხით: სამედიცინო სისტემა, რომელიც ძირითადად ერთი ეთნიკური ჯგუფის, ასაკის ან სოციო-ეკონომიკური ფენის მონაცემებზეა გაწვრთნილი, შეიძლება სხვა ჯგუფებისთვის ნაკლებად ეფექტური ან მცდარი აღმოჩნდეს. კვლევებმა დაადასტურა, რომ სოფლის მოსახლეობის საბაზო მონაცემებში წარუდგენლობამ პნევმონიის დიაგნოსტიკისთვის შექმნილ ხელოვნური ინტელექტის სისტემებში ცრუ-უარყოფითი შედეგების 23%-ით მაღალ მაჩვენებელთან ასოციირება გამოიწვია, ხოლო მუქი კანის მქონე პაციენტებში კანის კიბოს გამოვლენის შეცდომებიც უფრო ხშირია. [3]
2010-იანი წლების დასაწყისიდან ხელოვნური ინტელექტის წამლის აღმოჩენის სფეროში მილიარდობით დოლარი დაიხარჯა. 2024 წლის ანალიზის მიხედვით, წამლის წამყვანი კომპანიების მხოლოდ 31 პრეპარატი ადამიანებზე კლინიკური კვლევების ეტაპზეა — ამათგან ვერცერთმა ვერ მიიღო კლინიკური დამტკიცება. [7] ეს ნათელს ხდის, რომ ხელოვნური ინტელექტის პოტენციალი — განსაკუთრებით წამლის სფეროში — ამ ეტაპად მეტწილად გამოუყენებელია.
საერთაშორისო გამოცდილება
ჯანდაცვის მსოფლიო ორგანიზაცია (WHO) ხელოვნური ინტელექტის მედიცინაში ეთიკურ გამოყენებაზე 2021 წელს გამოაქვეყნა სახელმძღვანელო დოკუმენტი, რომელშიც ხაზი გაესმა გამჭვირვალობის, მიუკერძოებლობის, ანგარიშვალდებულებისა და პაციენტის ავტონომიის პრინციპებს. FDA-მ კი 2024 წლის ბოლოს დაამტკიცა სახელმძღვანელო ცვლილებების გეგმების სტრუქტურის (Predetermined Change Control Plans) შესახებ, რომელიც ხელოვნური ინტელექტის სამედიცინო სისტემების განახლების პირობებს ადგენს [8].
CONSORT-AI — ხელოვნური ინტელექტის ინტერვენციების შემცველი კლინიკური კვლევების ანგარიშგების სტანდარტი — The BMJ-ში 2020 წელს გამოქვეყნდა [2]. ეს სტანდარტი ადგენს, რა ინფორმაცია უნდა შეიცავდეს კვლევის ანგარიში, რათა ხელოვნური ინტელექტის სისტემის ეფექტი სწორად შეფასდეს. Lancet Digital Health-ში გამოქვეყნებული ანალიზი ადასტურებს, რომ ბევრი კვლევა ამ სტანდარტებს არ ასრულებს — ეს კი ნიშნავს, რომ გამოქვეყნებული შედეგების ნაწილი შეიძლება არ ასახავდეს სისტემის რეალურ სამედიცინო ეფექტს [3].
npj Digital Medicine-ში გამოქვეყნებული მიმოხილვის მიხედვით, მიკერძოება სამედიცინო ხელოვნური ინტელექტის მთელ სასიცოცხლო ციკლს მოიცავს — მონაცემების შეგროვებიდან, მოდელის შექმნიდან და ვალიდაციის ეტაპიდან კლინიკურ განთავსებამდე — და მას შეიძლება მნიშვნელოვანი კლინიკური შედეგები მოყვეს. [5] ეს სისტემური ხასიათის პრობლემაა, რომლის მოგვარებაც ტექნოლოგიური განვითარებასთან ერთად ეთიკური ჩარჩოსა და მარეგულირებელი პოლიტიკის განვითარებასაც მოითხოვს.
საქართველოს კონტექსტი
საქართველოს ჯანდაცვის სისტემა ამ ეტაპად ხელოვნური ინტელექტის ტექნოლოგიების ნაბიჯ-ნაბიჯ ინტეგრაციის პროცესშია. ციფრული ჯანდაცვის ინსტრუმენტები — ელექტრონული სამედიცინო ჩანაწერები, ტელემედიცინა — ნარჩუნებს ტემპს. ამ ფონზე, ერთი კრიტიკული ასპექტი გამოირჩევა: ბევრი ხელოვნური ინტელექტის სისტემა, რომელსაც ქართული ჯანდაცვის სფერო ეყრდნობა, ევროპულ ან ამერიკულ მოსახლეობაზეა გაწვრთნილი. ადგილობრივ მოსახლეობაში მათი ეფექტი ყოველთვის ერთნაირი არ არის — ამის გათვალისწინება კი კლინიკური პასუხისმგებლობის ნაწილია [6].
www.publichealth.ge-ს ჩარჩოში ციფრული ჯანდაცვა სულ უფრო მეტ ადგილს იკავებს. ხელოვნური ინტელექტის სამედიცინო სისტემების ხარისხის, სერტიფიკაციისა და სტანდარტების საკითხები ეროვნული დღის წესრიგის ნაწილი უნდა გახდეს — ამ სფეროში www.certificate.ge ხარისხის მართვის საკითხებზე სასარგებლო ინფორმაციის წყაროა.
ქართული სამეცნიერო სივრცეც სულ უფრო ინტეგრირდება ციფრული ჯანდაცვის ეპიდემიოლოგიაში. www.gmj.ge-ის ფარგლებში გამოქვეყნებული კვლევები ხელს უწყობს ადგილობრივი კონტექსტის ფარგლებში ამ სფეროს კრიტიკული ანალიზის კულტურის ჩამოყალიბებას. ამ მიმართულებით ეროვნული ექსპერტული ბაზის განვითარება სტრატეგიული პრიორიტეტია.
მითები და რეალობა
ხელოვნური ინტელექტი მედიცინაში ბევრ გავრცელებულ, მაგრამ მეცნიერულ შეფასებასთან შეუსაბამო წარმოდგენას ბადებს.
პირველი მითი: „ხელოვნური ინტელექტი ობიექტური და მიუკერძოებელია, ადამიანი-ექიმისგან განსხვავებით.” ეს ფუნდამენტურად არასწორია. სამედიცინო ხელოვნური ინტელექტის „ობიექტურობისა” და „გამეორებადობის” არარეალური დაპირება გულისხმობს, რომ ისინი ადამიანის მიკერძოებას გამოასწორებენ. სინამდვილეში კი ხელოვნური ინტელექტის მოდელები ხშირად მიკერძოებულია გარკვეული პაციენტების ჯგუფების მიმართ, რაც ეფექტის დისბალანსსა და კლინიკური სარგებლის უთანასწორო გადანაწილებას იწვევს. [5]
მეორე მითი: „სისტემა, რომელმაც კვლევებში კარგი შედეგი დააფიქსირა, კლინიკურ პრაქტიკაში ასევე ეფექტურია.” კვლევის გარემო ხშირად იდეალიზებულია. ხელოვნური ინტელექტის „შავი ყუთის” პრობლემა — სისტემის გადაწყვეტილების ახსნის შეუძლებლობა — პაციენტების, ექიმებისა და ზოგჯერ თვით დეველოპერების მიერ — სამედიცინო ეთიკის მოთხოვნებთან პოტენციურ კონფლიქტს ქმნის, განსაკუთრებით მაშინ, როდესაც მიღებული გადაწყვეტილებები მნიშვნელოვნად ზეგავლენას ახდენს პაციენტის მდგომარეობაზე. [6]
მესამე მითი: „ხელოვნური ინტელექტი ექიმის ჩანაცვლება შეძლებს ახლო მომავალში.” მეცნიერული კონსენსუსი ამ პოზიციას ეწინააღმდეგება. ხელოვნური ინტელექტი ამ ეტაპად სამედიცინო გადაწყვეტილების მხარდაჭერის ინსტრუმენტია, არა — ავტონომიური კლინიცისტი. კლინიკური სამსჯავრო, ეთიკური პასუხისმგებლობა და ინდივიდუალიზებული კლინიკური მიდგომა — ეს ფუნქციები ადამიანური კომპეტენციის სფეროში რჩება [3].
ხშირად დასმული კითხვები (Q&A)
არის თუ არა ხელოვნური ინტელექტი საშიში?
სათანადო გამოყენებისას — არა. თუმცა ნებისმიერი სამედიცინო ინსტრუმენტი, კლინიკური ვალიდაციის, ზედამხედველობისა და გამჭვირვალობის გარეშე გამოყენებული, რისკის შემცველია. ხელოვნური ინტელექტი გამონაკლისი არ არის [1].
შეიძლება ხელოვნური ინტელექტის სისტემამ გადამამეტი ნდობა გამოიწვიოს ექიმებში?
დიახ — ეს ე.წ. „ავტომატიზაციის კომპლაცენტობა” (automation complacency) კლინიკურ პრაქტიკაში რეალური ფენომენია. ექიმი, რომელიც სისტემის გამომავალ მონაცემებს უკითხავ ნდობას ანიჭებს, შეიძლება კლინიკური ცდომილებების გამოვლენაში შეფერხდეს, რაც სამედიცინო გადაწყვეტილების ხარისხს ამცირებს. [3]
ვინ არის პასუხისმგებელი, თუ ხელოვნური ინტელექტის სისტემა შეცდომას დაუშვებს?
ეს ამ ეტაპად ერთ-ერთი ყველაზე გაურკვეველი სამართლებრივი საკითხია სამედიცინო სამართალში. პასუხისმგებლობა განაწილდება დეველოპერს, ჯანდაცვის დაწესებულებასა და კლინიცისტს შორის — კონკრეტული გარემოებებიდან გამომდინარე. მკაფიო კანონმდებლობა ამ სფეროში სხვადასხვა იურისდიქციაში ჯერ კიდევ ყალიბდება [6].
შეიძლება ხელოვნური ინტელექტი ადამიანების სხვადასხვა ჯგუფისთვის სხვადასხვა ხარისხით მუშაობდეს?
დიახ — და ეს ერთ-ერთი ყველაზე სერიოზული, დოკუმენტირებული პრობლემაა. ტრენინგ-მონაცემებში ჯგუფების წარუდგენლობა ნიშნავს, რომ სისტემის პროგნოზი ამ ჯგუფებისთვის ნაკლებად სანდო შეიძლება აღმოჩნდეს [4,5].
დასკვნა — საზოგადოებრივი ჯანდაცვის პერსპექტივით
ხელოვნური ინტელექტი მედიცინაში არარეალური პანაცეაც არ არის და გადაჭარბებული საფრთხეც. ეს ძლიერი ინსტრუმენტია, რომელსაც შეუძლია ჯანდაცვის სისტემაში ეფექტიანობის ზრდა, ადრეული დიაგნოსტიკა და კვლევის პროცესის ოპტიმიზაცია. ამავდროულად, ის ექვემდებარება ყველა სამეცნიერო ინსტრუმენტისთვის სავალდებულო კრიტიკულ შეფასებას — და ეს შეფასება ვალდებულია სიმართლეს ეკვლეოდეს.
კლინიცისტისთვის ეს ნიშნავს: გამოიყენე ხელოვნური ინტელექტი დამხმარე გადაწყვეტილების მხარდასაჭერ ინსტრუმენტად, არა — ავტომატური გადაწყვეტილების მიმღებად. ყოველთვის გაიარე სისტემის ვალიდაციის ანგარიში. კრიტიკულად შეაფასე, ვისზეა სისტემა გაწვრთნილი და შეესაბამება თუ არა ეს ბაზა შენს პაციენტურ გარემოს. პაციენტს აცნობე ხელოვნური ინტელექტის გამოყენების შესახებ, სადაც ეს კლინიკურად რელევანტურია.
პოლიტიკის შემქმნელებისთვის ეს ნიშნავს: ხელოვნური ინტელექტის სამედიცინო სისტემების ეროვნული სტანდარტები, სერტიფიკაციის მოთხოვნები და ადგილობრივი ვალიდაციის პროცედურები სასიცოცხლო მნიშვნელობის ელემენტებია, რომლებზეც ქართველი პაციენტების უსაფრთხოება სულ უფრო მეტად დამოკიდებული ხდება.
წყაროები
- ScienceDirect. Artificial intelligence in clinical trials: A comprehensive review of opportunities, challenges, and future directions. 2025. https://www.sciencedirect.com/science/article/pii/S1386505625003582
- Liu X, et al. Reporting guidelines for clinical trial reports for interventions involving artificial intelligence: the CONSORT-AI extension. BMJ. 2020;370:m3164. https://www.bmj.com/content/370/bmj.m3164
- Coiera E. The false promise of artificial intelligence in healthcare. Lancet Digit Health. 2022;4(9):e628–e630. https://www.thelancet.com/journals/landig/article/PIIS2589-7500(22)00112-3/fulltext
- PMC. Reducing misdiagnosis in AI-driven medical diagnostics: a multidimensional framework for technical, ethical, and policy solutions. 2025. https://pmc.ncbi.nlm.nih.gov/articles/PMC12615213/
- npj Digital Medicine. Bias recognition and mitigation strategies in artificial intelligence healthcare applications. 2025. https://www.nature.com/articles/s41746-025-01503-7
- PMC. Defining medical liability when artificial intelligence is applied on diagnostic algorithms. 2023. https://pmc.ncbi.nlm.nih.gov/articles/PMC10711067/
- Wilczok D, et al. Progress, pitfalls, and impact of AI-driven clinical trials. Clin Pharmacol Ther. 2025;117(4):887–890. https://pubmed.ncbi.nlm.nih.gov/39722473/
- Frontiers in Medicine. A decade of review in global regulation and research of artificial intelligence medical devices (2015–2025). 2025. https://www.frontiersin.org/journals/medicine/articles/10.3389/fmed.2025.1630408/full





















