Türk tipi yapay zekâ geliyor

EVRİN GÜVENDİK/ANKARA- Cumhurbaşkanlığı Dijital Dönüşüm Ofisi Başkanvekili Yusuf Tancan, Meclis Yapay Zekâ Araştırma Komisyonu’ndaki sunumunda, yapay zekâda yaşanabilecek sorun ve riskleri anlattı.

Tancan, 2024 yılı sonunda Yapay Zekâ Strateji Belgesi’ni güncellediklerini ve firmaların yapay zekâ kullanımını teşvik etme, insan kaynağını geliştirme, üretken yapay zekâyı geliştirmeye yönelik çalışmaların da ortalarında olduğu 71 adet yeni aksiyon planı belirlediklerini kaydetti. Cumhurbaşkanlığı Dijital Dönüşüm Ofisi olarak sağlam ve sorumlu yapay zekâ ekosistemi oluşturmayı hedeflediklerini, çalışmalarını da bu kapsamda sürdürdüklerini söyleyen Tancan, Sanayi ve Teknoloji Bakanlığı, Türk Standartları Enstitüsü (TSE) ve TÜBİTAK Yapay Zekâ Enstitüsünün çalışmalarına takviye verdiklerini bildirdi. Tancan, yapılan çalışmaların temel maksadını, “uluslararası düzenlemelere de ahenk sağlanarak Türkiye’de yapay zekânın inançlı ve sorumlu kullanımını temin edecek standartlar, mevzuat, rehberler ve kontrol araçlarını kapsayan bir yapı oluşturulması” formunda anlattı. Tancan, bu yapıyla da hem vatandaş haklarının muhtemel ihlal ve risklere karşı korunacağını hem de yerli ve ulusal yapay zekâ teknolojilerinin geliştirilmesi için bir taban oluşturulacağını tabir etti.

Kamu Bilgi Platformu

Tancan, Kamu Bilgi Alanı Projesini de anlattığı sunumunda, bu projeyle AB’nin bilgi uzayları konseptinin Türkiye’ye uyarlandığını söyledi. Tancan, “Bu kapsamda kamu kurumlarının elindeki dataların veri analitiği emeliyle işlenmesini sağlayacak bir teknik altyapı ve platform oluşturuyor olacağız. Proje, Başkanlığımızla TÜİK iş birliğinde yürütülüyor, pilot uygulama süreci devam ediyor. Proje tamamlandığında örneğin Tarım ve Orman Bakanlığı ile Meteoroloji Genel Müdürlüğü ve Devlet Su işleri Genel Müdürlüğünün elindeki dijital bilgiler tek bir platformda birleştirilerek ülkemizdeki ziraî üretime yönelik çok daha ayrıntılı tahliller yapılması mümkün olacak” diye konuştu.

‘Veri zehirlenmesi’ tehlikesi

“Yapay zekânın birtakım durumlarda evvelce öngörülemeyen kararlar vermesi mümkün. Bu kararlar bazen bir emekçi seçiminde taraflı davranmasına sebep olabileceği üzere, birtakım durumlarda da insan hayatını tehlikeye sokan kazaların ortaya çıkmasına yol açabiliyor” diyen Tancan, yapay zeka tarafından denetim edilen Uber’in otonom aracının bir bisikletliye çarptığı kaza ile Belçikalı bir gencin iklim değişikliği konusunda ChatGPT’yle yaptığı sohbette karamsarlığa düşerek intihar etmesi örneklerine dikkati çekti. Tancan, şöyle devam etti:

Cevap bekleyen sorular

“Verdiğim örneklerdeki sıkıntılar çok çeşitli sebeplerle ortaya çıkmış olabilir. Kullanılan yapay zeka modeli yetersiz olabilir yahut modeli eğitmek için kullanılan bilgiler taraflı yahut yanlış olabilir, algoritmalar eğitim aldıkları bilgilerdeki önyargıları tekrarlıyor olabilir yahut dış müdahaleyle data zehirlemesi olarak tabir edilen bir akına maruz kalmış olabilir. Bu örnekler, yapay zekânın kullanımı konusunda hukuksal ve ahlaki soruları da gündeme getiriyor. Bu üzere bir kaza olduğunda sorumlu kim; sürücü koltuğunda oturan lakin yola dikkat etmeyen şoför mü, yoksa aracı denetim eden yapay zekâ modülünü geliştiren firma mı? Bunlar daha evvel güvenlik açısından denetlendi mi ve kontrolü yapanların sorumluluğu ne? üzere sorular yanıt bulmayı bekliyor. Yapay zekânın sorumlu ve etik kullanımı hâlihazırda memleketler arası platformlarda da ağır bir halde tartışılıyor; buna yönelik prensip ve standartlar geliştirilmeye çalışılıyor.” 

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir