Yapay zekanın kullanımı adalet anlayışını zedeliyor
Yapay zekanın olumsuz kullanımı adalet anlayışını zedeleyebiliyor – İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim …
Yapay zekanın olumsuz kullanımı adalet anlayışını zedeleyebiliyor – İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu: – “Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor” – “Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı” – “Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun (Facebook) etkisi olduğu ortaya çıktı”
Yapay zeka teknolojileri eğitimden sağlığa, güvenlikten eğlenceye kadar hayatın her alanından kullanım alanlarını hızla genişletiyor. Özellikle tekrar eden ve rutin işlerde getirdikleri kolaylıkla iş hayatında merkezi bir rol oynamaya başlayan yapay zeka teknolojileri, güvenlik gerekçeleri ile özel hayatın gizliliği gibi konularda ise endişelere sebep oluyor.
İstanbul Medipol Üniversitesi İnsan ve Toplum Bilimleri Fakültesi Öğretim Üyesi Doç. Dr. Faik Tanrıkulu, son dönemde yapay zekanın olumsuz kullanımı sorunu ile ilgili görüşlerini paylaştı.
İktidarların hem sensörler hem de algoritmalar aracılığıyla sürekli farklı noktaları takip edebildiğini belirten Tanrıkulu, “Bu konuda yeni teknolojileri kullanan ülkelerin başında Çin geliyor. Çin hükümeti bu süreçte insanların akıllı telefonlarını yakından izlemiş, yüz milyonlarca yüzü tanıyan kameraları kullanmaktan kaçınmamıştı. Hatta insanların vücut sıcaklıklarını, tıbbi durumlarını kontrol etmeye ve bildirmeye zorlamıştı.
Bu kapsamda ülkelerin hem ulusal güvenlik hem de sınır yönetimi konusunda bu teknolojileri kullanması insan hakları açısından endişe verici olabiliyor. Zira yapay zekâ araçları gerek insanların profilini çıkararak artan suç ve terörist faaliyet alanlarını belirleyebilmek için sosyal medya gönderilerini, seyahat kayıtlarını ve suç istatistiklerini cezai muahede için kullanabiliyor. Bu teknolojilerin değerlendirmelerine bağlı olarak insanların şüpheli kabul edilmesi adalet anlayışını zedeleyebiliyor.” şeklinde konuştu.
MYANMAR’DAKİ ŞİDDET OLAYLARININ ARTMASINDA YAPAY ZEKANIN ROLÜ
İnsan Hakları İzleme Örgütü’nün Myanmar’ın askeri cuntasının arananlar listesini yüz ve plaka tanıma sistemiyle Çinli teknoloji şirketi tarafından sağlanmasını eleştirdiğini belirten Tanrıkulu, sözlerini şöyle sürdürdü:
“Ayrıca 20018 yılında Facebook’un kullandığı yapay zekâ algoritmalar belirli bir süre sonra şiddet içerikli sayfalar önermeye başlaması teknolojinin olumsuz kullanımını gözler önüne getirdi. Guardian gazetesinin bir rapora dayandırdığı haberde, Facebook Myanmar’daki darbe protestocularına karşı şiddeti teşvik eden paylaşımları platformun kötüye kullanmasını kısıtlama sözü vermesine rağmen kaldırmadı.
Global Witness hak grubu, Facebook öneri algoritmasının kullanıcıları şirket politikalarını ihlal eden içeriği görüntülemeye devam ettiğini tespit etti. Ayrıca şirketin küfürlü içerik barındıran asker yanlısı sayfa önerdiğini ortaya çıkardı. Bu nedenle Myanmar’da ve Etiyopya’daki etnik çatışma da şiddetin artmasında bu platformun etkisi olduğu ortaya çıktı. Myanmar’da nüfusun yarısını Facebook’u aktif kullanıyor. Dolayısıyla etkili olan bu platformun manipülasyon ve etkileşim politikalarını yapay zekâ teknoloji ile yapıyor olması önemli. Şirket yetkilileri kötüye kullanıldığını kabul ederek hatasını kabul etmişti.”
VERİ SETLERİ AYRIMCILIĞA VE IRKSAL ÖNYARGILARA SEBEP OLABİLİYOR
Yapay zeka destekli teknolojinin oluşturabileceği tehlikelere karşı uluslararası örgütlerin de harekete geçtiğine değinen Tanrıkulu, “Birleşmiş Milletler (BM) İnsan Hakları Konseyinin yayınladığı raporda, bu teknolojinin başta profil oluşturma, otomatik karar vermek ve makine öğrenimi dahil birçok özelliği ile insan hakları risklerini analiz ettiğini bildiriyor. Komiser Bachelet bu durumu felaket olarak yorumluyor. Raporun dikkati çeken yönü ise bu teknolojide kullanılan veri setlerinin hem ayrımcılığa hem de ırksal ve etnik önyargıları tetikleyecek sorunlara neden olacağını açıklıyor.” diye konuştu.
Tanrıkulu, yapay zekanın mağduriyetlere sebep olmadan kullanılması için yapılması gerekenlere dair detaylar vererek, sözlerini şöyle sürdürdü:
“Sonuç olarak, yapay zekâ teknolojisi günümüz dünyasında hayatı kolaylaştıran imkanlar oluşturduğu gibi insan hakları ihlallerini görmemezlikten gelmek doğru bir yaklaşım olmaz. Bu yönüyle ülkelerin ve karar vericilerin bu konuda daha fazla şeffaf, adil değerlendirme ve yapay zekanın kullanımının etkileri hususunda daha açık olmalı. Konunun uzmanları bu konuda uluslararası bir eylem planının çıkarılması görüşünde.
Tam bu noktada bu teknolojilerin kullanımını kısıtlamadan ziyade, bu alanda çalışan şirketlerin uluslararası hukuk normlarına uyması ve denetlenebiliyor olması başlıca önemli hususlardan. Ancak ilk olarak günümüz şartlarına teknoloji ile gelişen bu platformların ülkeler ve aktörler tarafından tarafsızca ele alınması ve mevzuatın oluşması gerekiyor. Bu durumda yapay zekanın idari ve hukuki mekanizmaları ve uygulamaları gelecekte ülkelerin daha çok gündeminde olacak.”