Yapay zeka gazeteciliğinin getirdiği etik kaygılar: Kim sorumlu olacak?
Her şey 2020 yılında Çevrim içi Gazetecilik Ödülü’nün ilk kez yapay zeka gazeteciliği yapan bir algoritmaya gitmesiyle başladı. Medyanın yapay zeka ile daha farklı bir yöne evrildiğini kanıtlar nitelikte olan bu gelişme sonrası yapay zeka gazeteciliğini, etik kaygıları ve gazetecilerin haklarının ne olacağını daha fazla konuşmaya başladık. Haber kuruluşları yıllardır makine öğreniminden doğal dil işlemeye kadar verileri algılama, toplama, ayıklama ve doğrulama gibi süreçlerde yapay zekayı kullanıyor. Aynı zamanda hikayeler, grafikler, haberlerin sıralanması, seçilmesi ve önceliklendirilmesi gibi farklı alanlarda da yapay zekaya başvuruyor. Bu noktada, akademisyenlere, hukukçulara ve gazetecilere yapay zeka gazetecİliğini sorduk.
NİLAY KAMU
Üsküdar Üniversitesi Yeni Medya ve Gazetecilik bölüm başkanı Prof. Dr. Süleyman İrvan yapay zeka ya da robot gazeteciliğinin birçok ülkede başarılı bir şekilde yapıldığına vurgu yaparak şunları söylüyor:
‘’Özellikle, borsa, ekonomi, spor, hava durumu, deprem gibi verilere dayalı haberler yapmakta robotlar oldukça başarılı. Bizde henüz bir örneği yok ama özellikle ABD’de birçok medya kuruluşu bu haberleri yayımlıyor. İşin elbette teknik bir boyutu var, iletişimcileri aşan bir boyutu var. Mühendislerle gazeteciler iş birliği yapmak zorunda. Hukuksal açıdan şöyle bir sorun var. Hatalı bir haber yayımlandığında muhatap kim olacak? Robot olamayacağına göre, bu sorunun çözülmesi gerekiyor. Gazetecilik açısından ise en ciddi sorun, birçok gazeteciyi işsiz bırakacak olması. Eğer 10 muhabirin üretebileceği haberi tek bir robot üretirse neden 10 muhabir istihdam etsin ki medya kuruluşu? Medya kuruluşlarının robotların yapamayacağı türden araştırmacı gazetecilik haberlerine yönelmeleri gerekiyor.’’

Yapılan araştırmalar yapay zekanın gazetecilik mesleğinde de köklü değişikleri beraberinde getirdiğine işaret ediyor. Elbette bu etik kaygıların yanında yapay zeka tarafından hazırlanan haberlerde gazetecilerin hakları da gündem konusu oluyor. Yapay zekanın gazetecilikte kullanılmasıyla insan gazetecilere ek olarak artık robot gazetecilerden de faydalanılıyor. Bir diğer yandan haberin toplanması, üretilmesi, içeriğin dağıtılması ve yayınlanmasını tanımlamada “robot gazeteciliği”, “otomatik içerik”, “algoritmik haber” gibi farklı terimler de hayatımıza dahil olmaya başladı.
Yapay zekanın bir kişi mi yoksa eşya mı olarak ele alınacağı halen tartışmalı!
Gazetecilik pratikleriyle bir noktada kesişen yapay zeka, medyanın farklı alanlarında kullanılır hale gelmesiyle bazı etik tartışmaları da başlatmış oldu. Yapay zeka ve özel hukuk ilişkisine değinen Avukat Ecem Aksoy, yapay zekanın disiplinlerarası bir alan olduğuna vurgu yapıyor. Öte yandan yapay zeka gazeteciliğinin özel hukuk ile olan kısmı ile ilişkili olarak davalarda kimlerin taraf olabileceğini ele alan Aksoy, yapay zekanın bizzat kendisinin zararlı ya da suçlu olmadığının altını çiziyor:
‘’Yapay Zeka’nın (YZ) hukuki bir kavram olmaması ve disiplinlerarası bir alan olması bu soruya verilecek yanıtı güçleştirmektedir. Özel haber öğelerinin bir araya getirilmesi modern dijital medyada görülebilir. YZ’nin bir kişi mi yoksa bir eşya mı olarak ele alınacağı konusunda bir netlik bulunmamaktadır ancak mevcut düzenlemelerle doğrudan YZ’nin kendisini sorumlu tutabilmek de mümkün değildir. Şu anda AB’de adımı atılan düzenlemede de Yapay Zeka Sistemlerinin hukuki statüsünden bağımsız kullanımı düzenlenmektedir.
Nitekim gazetecilikte bir haberin arka perdesinde ajanslar, sosyal medya siteleri, teknoloji şirketleri, sahte haber tedarikçileri gibi haber yayılma sürecinde birçok katılan görmek mümkündür. Dolayısıyla, örneğin AB kapsamında kullanımı düzenlemeye tabi bir YZ sisteminden bahsedilecekse bu noktada söz konusu YZ sisteminin düzenlemeye uygun kullanılıp kullanılmadığı ya da kullanılmıyor ise ihlali kimin gerçekleştirdiğinin tespiti oldukça zor olacaktır. İhlallerin tümünü eksiksiz saptayabilmek de zor olacaktır.’’
‘’Yapay zekanın kendisi zararlıdır ya da suçludur’’ diyemeyiz
‘’Bir bilgi ya da haber tamamen bilgilendirici olmanın ötesine geçiyor ve manipülatif bir hal alıyorsa ve bireylerin özgürlüğünü ihlal ediyorsa, internette yaygın bir şekilde sahte haberler varsa, haberleri kontrol eden bir sistem yoksa, kişi profilleri çıkarılıyor ve hedef alınıyorsa burada yukarıda bahsedilen konular gündeme gelecek ama aynı zamanda bunun denetlenebilir olması kısmında basın özgürlüğü ile sahte haber ve manipülasyonu risklerini önlemeye çalışmak arasındaki çizgiyi korumak gerekecektir. Çünkü bu noktada tek etkilenen basın özgürlüğü değildir. İnsanların fikirlerini etkilemek için oluşturulan, bireyler hakkında binlerce veri noktasına sahip olunarak tespitler ile reklamlar ve haberler ile de
hedeflenerek ya da sahte haberler ile kazanç sağlanarak bireylerin etkilenen özgür iradeleridir de.
Yapay Zeka’nın kendisi zararlıdır ya da suçludur diyemeyiz. Yapay Zeka’nın mevcudiyetini ortadan kaldırmak veya kullanımını durdurmak yerine dikkat edilmesi daha gerçekçi bir yaklaşım olacaktır. Riskleri en aza indirmek için önemli ilkeler düzenlenmeli ve sistemler geliştirilmelidir. Bunların en başında ise şeffaflık ve kontrol yer almaktadır. Gizlilik ve veri konusuna ilişkin düzenlemelerin YZ sistemlerini de kapsayıcı şekilde modernize edilmesi, kullanıcılara şeffaflık sağlanması, sorumluluk ve ispata ilişkin hususların gelişmekte olan teknolojiler göz önünde bulundurularak ele alınması, bir birey veya bir kesim ile ilgili olma potansiyeli olan herhangi bir bilginin algoritmik kullanımı için insan denetimi ve hesap verebilirlik sağlanması diğer önemli hususlarıdır.’’
YAPAY ZEKA GAZETECİLİKTE NASIL BİR PLAN DAHİLİNDE UYGULANMALI?
Yapay zeka gazeteciliği noktasında halen bir görüş birliği bulunmuyor. Türkiye’deki medya organlarında konu hakkında kapsamlı bir çalışma bulunmasa da gazeteciliğe yönelik yapay zeka entegrasyon süreçleri hakkında uluslararası arenada çalışmalar harıl harıl sürmeye devam ediyor. Özellikle AP, Bloomberg ve Financial Times gibi medya kurumlarının ön ayak olmasıyla daha görünür bir şekilde geçişler yaşandı/yaşanıyor. Gazeteci Ilgaz Yalçın Fakıoğlu ise gazetecilikte yapay zeka için nasıl bir plan gerektiği sorusuna kafa yoruyor.

Fakıoğlu, yapay zekanın ekip entegrasyonlarına odaklanan AP ve Bloomberg gibi medya kuruluşlarındaki editör alımlarında en azından bilgisayar ve yazılım bilimlerinde temel bir bilgiye sahip olmaları, ürün grubuyla, mühendislerle bir iş birliği içinde olmaları gerektiğine dair artan bir beklentinin oluşmaya başladığını söylüyor. Bir diğer yandan da yapay zeka entegrasyonunu başarılı olarak uygulayabilmek mecradaki gazetecilerin en azından veriyi kullanma, işleme ve veriyi bilmede temel bir niteliğe sahip olmalarını da gerekli kıldığının altını çiziyor.
‘Cezai yaptırımlarda yapay zeka bir araç olmalı’
Yapay zeka gazeteciliğinde bazı etik sorunlar veya boşluklar doğuyor. Örneğin algoritmanın hazırladığı bir haber yanlış bilgileri de içeriyorsa bu noktada yargılanan kim olacak? Algoritmanın yazdığı haberi düzenleyen editör mü, makine öğrenmesiyle haberin yazılmasına vesile olan yazılımcı mı yoksa direkt haberi oluşturan yapay zeka mı? Fakıoğlu, konu hakkında kafaların karışık olduğunu söylüyor. Cezai yaptırım konusunda da yapay zekanın tamamen olayın dışında tutulmaması gerektiğini savunan Fakıoğlu konu hakkında şu sözleri söylüyor:
‘’Şu an algoritmik gazetecilik noktasında düzenleyici kuralların sektöde oturmamış olması nedeniyle veri kullanımı ve etik sorulara yönelik medya şirketlerinin kafasında birçok soru işareti var. Yapay zekanın özellikle NLP ve algoritmik gazetecilik minvalinde henüz yaratıcılık evresinde kısmi bir üretim gerçekleştirdiğini düşünürsek, ben cezai yaptırım noktasında yapay zekanın bir araç olarak kabul edilmesi gerektiğini düşünüyorum. Dolaylı sorumlulukların devreye girdiği sistemde, aracı doğrudan üreten yazılımcı ve eşik bekçisi olarak mecrada bulunması gereken editör/teyitçi-yani son kullanıcının üretimin doğru sağlayacak koşullara uyması önemli. Fakat buradaki esas durum, yargılanacak kişiyi etik açıdan tartışmak yerine hatanın önüne geçebilmek. Bu nedenle algoritmanın güvenilir kaynak ve verilerle oluşturulabilmesi, mecranın gerçekten ihtiyacına yönelik otomasyon çözümlerini seçebilmesi önem kazanacak. Ben haber toplama, veri-kürasyon düzeni ve sosyal medya- dijital pazarlama araçları özelinden bir başlangıcı doğru görüyorum.’’
Araştırma gerektiren haberlerde halen insan gazeteciler tercih sebebi
Bir klişe olarak yapay zekanın insan gazetecilerin yerini alabileceği konuşuluyor ve tartışılıyor. Ancak bir gazeteci olarak yapay zekanın insanların yerine geçemeyeceğini belirten Fakıoğlu, ‘’Yapay zeka, nitelikli gazeteciliğin bağdaştırıcı-özgün gücünü yakın gelecekte doğrudan kopyalayamaz; ancak bugün insan kaynağını son dakika haberciliği için bir robota çevirmiş hız ve enformasyon baskılı düzene son verebilir. Son dakika, salt kısa dinamikli haberlerin yapay zekaya kayması, sektörün insan kaynağının geçmişteki gibi araştırmacı gazetecilik boyutuna yönlendirmesi; globaldeki kurumların en büyük beklentisi. Özellikle bütünleşen üretim teknikleriyle eleman sayısını değil üretim ölçeğini büyüten yeni medya ekonomisinin en büyük kârı da bu olacak’’ diyor.
Yapay zekanın çıkarımları insanlar tarafından kontrol edilmeli
Veri bilimcisi ve yapay zeka uzmanı olan Jonathan Stray, AP’de çalıştığı dönemde özellikle gazetecilik ve yapay zeka ilişkisini ele almış bir kişi. Dijital gazetecilik alanında yapay zekanın araştırmacı gazeteciliğe önem kattığını düşünen Stray, konu hakkında 2019 yılında yazdığı bir makalede gizli bilgilerin bulunması, araştırılması ve temizlenmesi adına yapay zekanın etkili olacağını savunuyor. Konu hakkında yapılan çalışmaları adeta doğrular nitelikte olan Stray’ın makalesi yapay zekanın gazetecilik alanında halen ‘otomasyon’ yönüyle yer aldığını söylüyor. Özellikle sektörde yer alan araştırmaların farklı temellerle ele alındığına değinen Stray, araştırmacı gazetecilik sorunlarının genellikle en son teknolojinin çok ötesinde olduğunu söylüyor ve oldukça karmaşık özetleme görevleri gibi mevcut yöntemlerin
mesleki etik ve hukukun farklı disiplinlerini kullanmada doğruluk getirdiğine inanıyor. Hatta yapay zeka tarafından yapılan çıkarımların da insanlar tarafından doğrulanması gerektiğinin özellikle altını çiziyor.
‘İnsanların kaçırabileceği hikayeleri yapay zeka yakalayabilir’
İnsan emeğinin şu noktada en iyi seçenek olduğunu değerlendiren Jonathan Stray, yapay zeka mühendislerinin muhabirlerden daha maliyetli bir seçenek olduğuna vurgu yapıyor. Diğer bir yandan muhabirlerin göz ardı edip kaçırabileceği insan hikayelerini yapay zekanın yakalayabileceğine inanıyor.
Akademisyenlerin, gazetecilerin ve hukukçuların birleştiği nokta ise yapay zekanın gazetecilik açısından fayda sağlayacağı ancak bazı etik sorunları da doğurabileceği yönünde oluyor. Özellikle bir yargılama durumunda yapılacak suçlamaların eksik kalması sektörün halen gerekli düzenlemelerden uzak olduğuna işaret ediyor. Yapay zeka gazeteciliği ve gazetecilerin haklarına gelecek olursak bir örnek üzerinden ilerlemek olayı özetleyecek gibi duruyor:
Örneğin yapay zeka tarafından hazırlanmış bir haberde yapılan yanlış sebebiyle bir şirket veya bir spor kulübü önemli zarara uğradı. Bu sebeple zarara uğrayan taraf (kurum ya da kişiler) yapay zeka tarafından hazırlanan haberi yayımlayan medya kuruluşuna dava açıyor. Buradaki asıl suçlu veya asıl muhatap alınan kişi veya kurum kim oluyor?
Bu sorunun cevabı oldukça önemli hale geliyor. Şu an için bu sorunun net bir cevabını vermek zor olsa da Hacı Bayram Veli Üniversitesi İletişim Fakültesinden Prof. Dr. Himmet Hülür, konuyu sosyolojik ve etik açısından bakarak şöyle ele alıyor:
‘’Teknoloji geliştikçe sadece teknolojinin değil toplumun da işleyişi insansızlaşıyor. Yani toplum ve insan ilişkileri artık insan iradesi ve seçiminin dışında belirlen bir gerçeklik kazanıyor. Teknolojiyi başta insanın kendi amaçlarına ve isteklerine daha kolay erişme rolü oynamış olsa da zamanla teknoloji insanı kendisine bağımlı kılmıştır. Kabaca söylersek, teknolojik gelişmeler hukuksal alan dahil çoğu toplumsal yaşam alanlarıda insan iradesini geçersizleştirdiği için suç ve suçlu da insanın kendi seçimiyle, amaçlı olarak, kasıtlı olarak gerçekleştirdiği eylemler olmaktan giderek daha fazla çıkıyor.
Zaten bu nedenle içinde yaşadığımız toplumu kısaca teknoloji toplumu olarak kavramlaştırıyoruz. Bu, teknolojinin artık toplumdaki her şeyi kendi egemenliği altına alması demektir. İnsan teknolojinin bu baskınlığı altında zaman içinde beden ve fikir olarak dönüşerek teknoloji insanı haline geliyor. Etik ve politik ölçütler zaman içinde daha çok teknolojik gelişmemin bir sonucu olarak kendini gösteriyor. İyi ve kötü dahil her türlü insan eylemi tekno-bilimsel ölçütlere göre anlam kazanıyor. O nedenle teknoloji toplumu, etik-ötesi bir toplumdur dememiz yanlış olmaz. Küreselleşmeyle birlikte bu etik-ötesi toplum yerküre üzerindeki tüm kültürler ve toplumlar üzerinde hakimiyet kazanıyor. Etik insan merkezli bir kavram olmasına rağmen teknoloji toplumu artık etikle insan arasındaki ilişkiyi hükümsüzleştiriyor.’’
Bir diğer yandan bu soruya hukuksal çerçeveden yaklaşan Bilişim Hukuku alanında çalışan Onur Özdiker, süreçlerin ülkelere göre farklılık gösterebileceğinin altını çiziyor. Özellikle sistem içinde açıkların olduğuna açıklık getiren Özdiker, şöyle konuşuyor:

‘’AB ile aramızda anlaşmalar bulunmakla birlikte bazı durumlarda karşılıklılık şartı aranıyor. Yine de ben işimi garantiye almak istiyorsam örneğin Le Monde’e karşı davayı Fransa’da açmak isterim. Neden? Çünkü ben İstanbul’da oturuyorum, Le Monde’e tebligat yapacağım ancak işler uzayacak, davayı kazandığımda da İcra edilebilirlik anlamında sorunlar yaşayabilirim. Fransa’da bu davayı açarsam ve kazanırsam o ülkedeki yetkililere “Bakın sizin mahkemenizden böyle bir karar aldım, lütfen bunu icra ediniz” deme hakkım olacak. Tekzip yayımlatacaksam oradaki medya denetim kurumlarına başvurmak gerekiyor.’’
“Şu anki sistemde sorumlu yayımlayan kurum ya da kişi oluyor”
Bir örnek üzerinden olayı açıklayan Özdiker, ‘’Öte yandan diyelim ki haber yazabilen bir yapay zeka algoritmasını kodlayan bir yazılımcı var ve bu algoritma tuttu ve sattı. Örneğin ben bunu aldım (Le Monde olarak) diyelim. Bu algoritmanın yaptığı haberden sorumlu direkt Le Monde olacaktır. Bu noktada yazılımcı algoritmayı hazırlamış ve satmış yani yapay zeka gazetecisinin (algoritmanın) hazırladığı haber yazılımcıyı ilgilendirmiyor. Bir diğer yandan bir spor kulübü hakkında yapılan haberde şirket zarar görüyorsa dava yine haberin yayımlandığı kuruluşa karşı açılacaktır.
Eğer büyük haber kuruluşlarında yayımlanan bir haber değil de kişisel internet sitesinde paylaşılan bir haberse internet sitesinin sahibine dava açılıyor. Yani bu noktada yapay zeka algoritmasını hazırlayan yazılımcı, yazılan ve yayımlanan haberlerden sorumlu olmuyor.
Yani temelde yapay zeka algoritmasının kaleminden çıkan haberler de internet ortamında yayımlanan haberlere açılan dava gibi ‘içerik sağlayıcısına’ açılıyor.’’
Bir diğer yandan ise yapay zeka haberlerinin anonim şekilde tutulması gerektiğini savunan Özdiker, ‘’Yazılımcı, internet sitesine sattı yazılımını ve eğer haber yayımlanacaksa şirketler ya da zarar görecek kurumların hedef gösterilecek şekilde isimlerinin verilmemesi lazım. Otomobil hisseleriyle alakalı bir haber yazılacaksa, tahmin yürütülecekse, en azından şirket isimlerinin verilmemesi (anonim tutulması) gerekiyor. Bir şirket hedef gösterilerek hisse düşüşü ya da olumsuz tahminler içeren haberler yapılması çok ciddi sıkıntılar yaratacaktır. Bence şu anda yapay zeka tarafından hazırlanan haberlerin/tahminlerin/yorumların anonim olarak yayınlanması en doğru yaklaşım. Bunun yanı sıra belirtmek gerekir ki özellikle yasal mevzuat anlamında yapay zeka ile alakalı düzenlemeler ülkemize çok geç geliyor.’’ diyor.
Yine de kriminal anlamda da yapay zekanın dahil olduğu suçlar halen tartışma götüren bir konu. Avukat Onur Özdiker, ‘’Kimin suçlu olduğuna dair tartışmalar, mesela yapay zeka destekli bir robotun insanı öldürmesi dahilinde de devam ediyor. Robotun geliştiricisi mi, robotu piyasaya süren şirketin mi sorumlu olacağı hakkında tartışmalar halen sürmekte olup, farklı senaryolara ilişkin farklı yorumlar mevcut. TCK’ de yer alan ‘Kasten İnsan Öldürme suçunda (madde 81)’ insan öldürme suçunu işleyen kişi başka bir kimsenin hayatına son vermelidir. Yani bu noktada birisini öldüren şey-“kişi” olarak görülüyor. Bir diğer yandan Tazminat hukuku açısından da değerlendirmek gerekecek olup, tazminat davasının kime karşı açılacağı, kimin ne oranda sorumlu olacağı, yazılımdan kaynaklı sorunlar olması durumunda tazminatın/sorumluluğun nasıl paylaşılacağı hususları da üzerinde tartışılan hususlar. Önümüzdeki dönemlerde bu hususlarda gerek mevzuat gerekse yargı kararları ile önümüzü daha net görebileceğimizi düşünüyorum” diyerek konu hakkındaki görüşlerini sonlandırıyor.
Yapay zekanın sebep olduğu zararlardan doğan sorumluluk
Bir diğer yandan Bilişim hukuku alanında uzmanlığı bulunan İstanbul Aydın Üniversitesinde hukuk dersleri veren Prof. Dr. Murat Volkan Dülger, yapay zekanın sebep olduğu zararlardan doğan sorumluluk hakkında da fikirlerini aktarıyor, ‘’Yapay zekanın fiilinden doğan zararlardan kimin sorumlu olacağı tartışmasında öncelikle yapay zekanın hukuki kişiliği meselesi üzerinde durmak gerekmektedir. Sorumluluğun belirlenmesi noktasında yapay zekanın gerçek, tüzel veya Avrupa Parlamentosu tarafından 2017’de yayınlanan rapora göre elektronik “kişi” olarak kabul edilmesi ya da öğretideki görüşler çerçevesinde “eşya”, “köle”, “hizmet” gibi farklı statülere tabi olması durumları hukuken farklı sonuçlar doğuracaktır.

Günümüzde yapay zekanın salt tepkisel, limitli hafıza, zihin teorisi ve öz farkındalığı olan şeklinde dört farklı tipi olduğu bilinmektedir. Öğretideki bazı görüşler kendi kendine öğrenip harekete geçebilen, öz farkındalığı olan otonom yapay zeka türünün bir kişi olarak değerlendirilebileceği ve fiillerinden doğan zararlara ilişkin sorumluluğuna gidilebileceği görüşünde olup; yapay zekaya atfedilebilir sorumluluğun değerlendirilmesinde yapay zekanın türünün özelliklerinin dikkate alınması gerektiği kanaatindedirler.