Sağlıkta yapay zekanın artık geleceğe ilişkin bir öngörü olmadığını belirten Öztürk, global ölçekte, her hafta yaklaşık 230 milyon kişinin sağlıklı hayat ve güzel hissetme mevzularında dijital yapay zeka sistemlerine başvurduğunun bildirildiğini aktardı.
Bazı raporlara nazaran, sırf ChatGPT’ye günlük seviyede sıhhatle ilgili soru yönelten kullanıcı sayısının 40 milyonun üzerinde olduğuna işaret eden Öztürk, “Diğer yapay zeka sistemleri de hesaba katıldığında, bu ilginin ne kadar geniş bir insan topluluğunu etkilediği dikkati cazip boyuttadır. Bu datalar, bireylerin sıhhat bilgisini arama ve anlamlandırma biçiminde yaşanan sessiz ancak esaslı dönüşümün dikkat cazibeli bir göstergesi olarak kıymetlendirilmektedir.” dedi.
Öztürk, bugün insanların analiz sonuçlarını, semptomlarını ve sıhhatle ilgili telaşlarını direkt yapay zekaya yöneltmeye başladığına dikkati çekerek, şu değerlendirmelerde bulundu:
“Bu davranış, sıhhat sistemindeki yoğunluk, randevu müddetlerinin kısalığı (randevu müddetlerinin uzunluğu ve muayene müddetlerinin kısalığı) ve anlık bilgi gereksiniminin artmasıyla yakından alakalıdır. Üstelik sırf hastalar değil, tabipler de bu teknolojileri kullanıyor. ABD’de 2024 yılında doktorların yüzde 66’sı yapay zeka kullandığını bildirdi. Bu oran 2023’te yüzde 38’di. Yani bir yılda yüzde 28 puan artış oldu, yaklaşık yüzde 74’lük artış yaşandı.”
“Yapay zeka bir ‘ön kıymetlendirme aracı’ olarak görülebilir”
İnsanların artık USG, BT, MR raporları ya da semptomlarıyla bir arama motorunda karmaşık sonuçlar ortasında kaybolmak yerine, bilgiyi manalandıran sistemlere yöneldiğini anlatan Öztürk, yalnızca ChatGPT üzerinden günde yaklaşık 40 milyon sıhhat sorgusu yapılmasının, bu refleksin ne kadar yaygınlaştığını gösterdiğini belirtti.
Öztürk, yapay zekanın tıbbi terminolojiyi sadeleştiren, hastanın belirsizlik kaynaklı paniğini azaltan bir “ön kıymetlendirme aracı” olarak görülebileceğini belirterek, fakat yapay zekanın asla bir teşhis makinesi değil sırf bir bilgi sürece aracı olarak doktorun işini kolaylaştıran bir yardımcı olduğunu lisana getirdi.
Yapay zekanın sunduğu bilgilerin “kesin doğru” kabul edilmesi en büyük risk
Yapay zekada genel tanısal doğruluk oranının günümüzde uzman doktor performansının gerisinde kaldığına vurgu yapan Öztürk, şunları kaydetti:
“Radyoloji, dermatoloji ve patoloji üzere standart protokollerin uygulandığı alanlarda insan gözünün kaçırabileceği detayları yakalayabilir. Lakin klinik bağlamı kavrama, anamnez kıymetlendirme ve fizik muayene üzere hekimliğin temel ögeleri algoritmaların dışında kalır. En büyük risk, sunulan bilgilerin ‘kesin hakikat’ kabul edilmesi ve profesyonel yardımın ertelenmesidir. ‘Halüsinasyon’ olarak isimlendirilen, gerçek dışı bilgilerin ikna edici bir lisanla sunulması hastada düzmece bir sükunet ya da yersiz panik oluşturabilir. Klinik karar takviye sistemlerinde yüzde 8-20 oranında halüsinasyon riski bildirilmiştir. Radyoloji araçlarında hadiselerin yüzde 5-10’unda yanlış teşhis, bir çalışmada ise benign (selim) nodüllerin yüzde 12’sinin malign (habis) olarak işaretlenmesi dikkati caziptir.”
“Telafisi imkansız sonuçlara neden olabilir”
Öztürk, yapay zekanın ruh sıhhati alanındaki kullanımına dair bilgiler vererek, şu görüşleri lisana getirdi:
“Yapay zeka, hafif telaş idaresi ve günlük ruh hali takibi üzere alanlarda aşikâr ölçüde takviye sunabilir; lakin tıbbi teşhis ve tedavi, fizik muayene, derin anamnez ve doktorun klinik deneyimiyle oluşan bir hikmet sentezidir. Yapay zeka insanın duygusal derinliğini ve ruhsal karmaşıklığını nitekim kavrayamaz, empati hissetmez, sadece empatik lisanı ikna edici biçimde taklit eder. Yapay zekanın kullandığı lisan, aslında bizim duymak istediklerimizi bize geri söyleyen dijital bir yankı odası üzeredir. Buna gerçek bir şefkat değil, ‘matematiksel bir empati’ diyebiliriz. Yapay zekanın size ‘seni anlıyorum’ demesi, nitekim bir şeyler hissettiği manasına gelmez. O yalnızca sözleri çok ikna edici bir halde yan yana dizen kusursuz bir taklitçidir. Bu yaklaşım kısa vadede kişiyi rahatlatabilir ve kendini görülmüş hissettirebilir, lakin birçok vakit kullanıcının söylediklerini onaylama eğilimindedir ve bu, kişinin kendini uygun hissetmesini sağlasa da her vakit yanlışsız ve sağlıklı olan manasına gelmez.
Dolayısıyla gerçek bir insan bağına, klinik sezgiye ve ahlaki sorumluluğa sahip olmadığı için yapay zekanın sunduğu bu yüzeysel empati, bilhassa ruh sıhhati alanında kırılgan ve riskli bir tabanda kalır. Klinik korelasyon kuramayan (klinikle irtibat kuramayan) algoritmaların yanlış yönlendirmeleri ruhsal süreçlerde telafisi güç sonuçlara yol açabilir. Bu durum münferit değil, toplumsal bir sistemik risk olarak değerlendirilmelidir. Kriz anlarında yahut ağır psikiyatrik durumlarda bağlamsal ahenk eksikliği, telafisi imkansız sonuçlara (intihar olayları vb.) neden olabilir.”
İdari yükü azaltma potansiyeli taşıyor
Yapay zekanın hastane ekosistemine entegrasyonu ile ilgili çalışmalara değinen Öztürk, bu çalışmaların doktorların idari yükünü azaltma ve data tahlilini derinleştirme açısından büyük potansiyel taşıdığına işaret etti.
Öztürk, bu sistemlerin tabibin yerini almak için değil, karar kalitesini artırmak için tasarlandığını belirterek, “Örneğin Da Vinci 5 robotik cerrahi sistemi, cerraha dokunsal geri bildirim ve milimetrik hassasiyet sağlayarak operasyon güvenliğini artırır. Teşhis koymadığını söz eden ChatGPT Health üzere uygulamalar bile glikoz takibi yahut genetik bilgi tahlili üzere işlevleriyle fiilen bir tıbbi aygıt fonksiyonu görebilir. Bu nedenle sıkı kontrol ve resmi onay süreçlerinden geçmeleri gerekir.” dedi.
Sağlıkta yapay zekanın denetimsiz bırakılırsa kaliteli araçlara erişen seçkin kesim ile kusura açık fiyatsız “chatbotlara” yönelen geniş kitleler ortasında bilgi asimetrisi oluşabileceğini söz eden Öztürk, “Kamusal akılla yönetilirse doktor erişiminin hudutlu olduğu bölgelerde birinci tarama aracı olarak adaleti güçlendirebilir.” diye konuştu.
Yapay zeka çıktılarına körü körüne güvenilmemeli
Öztürk, bir tabibin yapay zeka çıktısına dayanarak karar vermesi halinde son sorumluluğun kendisinde olduğuna vurgu yaparak, “Çıktılar körü körüne kabul edilmemelidir. Tüketici olarak direkt yapay zekadan alınan yanlış tavsiyelerde ise mevcut yasal müdafaa sonludur. Yapay zeka çıktısını denetleme ve valide etme (doğrulama) marifeti tıp eğitiminin ayrılmaz kesimi olmalıdır. Geleceğin doktoru sırf el hüneriyle değil, algoritma tekliflerini klinik süzgeçten geçirebilme yeteneğiyle öne çıkacaktır.” değerlendirmesinde bulundu.
Sağlıkta yapay zekanın ne mucize ne de mutlak tehdit olduğunu paylaşan Öztürk, gerçek kurallarla yönetildiğinde büyük bir kolaylık ve devasa bir güç, kontrolsüz bırakıldığında ise sessiz bir risk olduğunu söyledi.
Öztürk, asıl sıkıntının bu dönüşümün neresinde ve hangi etik pahalarla durulduğu olduğuna işaret ederek, şunları kaydetti:
“Yapay zeka teşhiste klinik kararın yerini alamaz, tedavi planlayamaz, reçete yazamaz. Bilhassa ruh sıhhatinde kullanımı çok daha fazla temkin ve alan uzmanı kararı gerektirir. Bir ön kıymetlendirme aracı olabilir, fakat sonuç kesinlikle tabip muayenesiyle teyit edilmelidir. Yapay zeka hastanın hayat üslubunu, genetik özelliklerini, eşlik eden hastalıklarını ve toplumsal belirleyicileri bütüncül biçimde değerlendiremez. Doktorun klinik deneyimi ve sezgisi vazgeçilmezdir. Verilen bilgiler her vakit en şimdiki olmayabilir. Kritik kararlar yeni kılavuzlar ve doktor değerlendirmesiyle alınmalıdır. Hastanelerde kullanılacak sistemler klinik validasyondan (doğrulamadan) geçmeli ve performansları sistemli izlenmelidir. Ayrıyeten kullanıcıların sıhhat datalarını bu sistemlere girerken mahremiyet ve data sürece şartlarını dikkate alması gerekir.”
Kaynak: Sözcü
















