Anadolu Ajansı tarafından hazırlanan “Yapay Zekada Etik Gerilim” dosyasında, yapay zekâ uygulamalarının hukuki çerçevesinden, denetimsiz kullanımın bilimsel üretim süreçlerinde doğurduğu etik sorunlara kadar geniş bir perspektif sunuldu.
Yapay zekâ teknolojilerinin hızla yaygınlaşması, fikri mülkiyet hakları ve cezai sorumluluk gibi alanlarda yeni tartışmaları beraberinde getirirken, mevcut düzenlemelerin yetersizliği yeni yasal adımların gerekliliğini gündeme taşıyor.
Hacettepe Üniversitesi Hukuk Fakültesi Dekan Yardımcısı Dr. Mehmet Çoğalan, yapay zekânın gelişiminin hız kesmeyeceğini belirterek, bu alandaki hukuki altyapının gecikmeden oluşturulması gerektiğine dikkat çekti.
Aynı üniversitenin Fikri Mülkiyet Hukuku Anabilim Dalı Başkanı Dr. Barış Gözübüyük ise yürürlükte net kurallar bulunmadığını vurgulayarak, yapay zekâya komut veren kişilerin eser sahibi sayılmamasının daha tutarlı bir yaklaşım olabileceğini ifade etti.
Öte yandan, otonom sistemlerin ölümcül güç kullanma yetkisiyle donatılması, insan yaşamının değeri ve onuru açısından ciddi tehditler oluşturuyor. Küresel aktörlerin yapay zekâyı askeri alanlarda kullanma konusundaki ısrarı, sivil verilerin de jeopolitik rekabetin bir parçası haline gelmesi riskini artırıyor.
Büyük teknoloji şirketlerinin Pentagon ile yakın iş birlikleri kurması, OpenAI’ın askeri sistemlere veri sağlama yönündeki kararı ve Anthropic’in etik duruşunu sürdürmesi, teknoloji dünyasında derin bir etik ayrışmayı ortaya koyuyor.
Kanada’daki McGill Üniversitesinden Prof. Ajung Moon, günlük yaşamda kullanılan verilerin ve otomasyon süreçlerinin ileride değişen küresel dengelerle birlikte bireylere karşı kullanılabileceği uyarısında bulundu.
Akademik dünyada ise yapay zekâ ve büyük dil modellerinin kontrol mekanizmaları olmadan yaygınlaşması, bilimsel üretimde emek ihlali ve özgünlük tartışmalarını beraberinde getiriyor. Bu durum, sorumluluk ve güvenilirlik kavramlarını da tartışmalı hale getiriyor.
Ankara Üniversitesi Yapay Zeka Enstitüsü Müdürü Prof. Dr. Mehmet Serdar Güzel, üretken yapay zekâ tarafından oluşturulan metinlerin aslında derleme niteliği taşıdığını ve kaynak gösterilmeden kullanılmasının intihal sayıldığını belirterek, akademik çalışmalarda bu araçların kullanımına ilişkin açık etik kuralların belirlenmesi gerektiğini dile getirdi.
Hacettepe Üniversitesi Bilgisayar Mühendisliği Bölümünden Prof. Dr. Ebru Akçapınar Sezer de büyük dil modellerinin hayatı kolaylaştırdığını ancak eğitim ve araştırma süreçlerinde doğru konumlandırılmasının kritik önem taşıdığını ifade etti.
Meclis Yapay Zeka Araştırma Komisyonu tarafından hazırlanan raporda, sosyal güvenlik sisteminin yapay zekâ kaynaklı iş kayıplarına uyarlanmasından, yapay zekâ üretimi içeriklerin tespitine yönelik dijital filigran ve meta veri çözümlerine kadar birçok öneri sıralandı.
Raporda ayrıca; siber güvenlikten savunma sanayine kadar farklı kurumların iş birliğiyle yerli yapay zekâ altyapılarının geliştirilmesi, eğitim sisteminin yeni iş gücü ihtiyaçlarına göre esnek hale getirilmesi ve yapay zekâ içeriklerinin şeffaf şekilde işaretlenmesi gibi başlıklar öne çıktı.
Uzmanlar, üretken yapay zekâ ile oluşturulan ve hızla yayılan manipülatif içeriklerin ciddi risk oluşturduğunu belirterek, teknoloji şirketlerinin daha fazla sorumluluk alması ve kapsamlı yasal düzenlemelerin devreye sokulması gerektiğini vurguladı.
Bununla birlikte, yapay zekâ kullanımındaki küresel artış, büyük veri merkezlerinde tüketilen enerji ve su miktarını artırarak çevresel sürdürülebilirlik tartışmalarını da gündeme taşıyor.
Başkent Üniversitesi Sürdürülebilir Çevre Uygulama ve Araştırma Merkezi Müdürü Prof. Dr. Nazmiye Erdoğan, özellikle su bazlı soğutma sistemlerinin ciddi kaynak tüketimine yol açtığını belirterek, bu sistemlerde 1 kilovatsaatlik enerji tüketimi için yaklaşık 1,8 ila 2 litre su harcandığını ifade etti.
