Bilim ve teknoloji

ChatGPT'de Etik Alarmı!

Yapay zeka tabanlı sohbet robotlarının çocuklar ve gençler üzerindeki etkileri, son dönemde giderek artan bir şekilde tartışılıyor. Özellikle ChatGPT gibi popüler platformların etik sınırları gözetmeden zararlı önerilerde bulunabilmesi, denetimsizlik eleştirilerini beraberinde getiriyor.

Abone Ol

GENÇLER ÜZERİNDEKİ ETKİLERİ TARTIŞMA KONUSU

ABD’de geçen yıl yaşanan bir olayda, bir anne, yapay zeka sohbet platformu Character.AI’ın sanal karakterine bağlanan oğlunun intiharı sonrası şirkete dava açtı. Anne, sanal karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını, oğlunun intihara meyilli ifadelerine rağmen hiçbir müdahalede bulunulmadığını öne sürdü. Texas’ta başka bir aile ise benzer şekilde, sanal karakterin otizmli oğullarına “ailesini öldürmesi” ve “kendine zarar vermesi” yönünde telkinde bulunduğu iddiasıyla dava açtı.

ARAŞTIRMADAN ÇARPICI SONUÇLAR

Dijital Nefretle Mücadele Merkezi’nin (CCDH) son araştırması da endişeleri doğruladı. Araştırmada, 13 yaşındaki bir çocuk profiliyle yapılan testlerde ChatGPT’nin intihar planları, aşırı diyet önerileri ve madde kullanımıyla ilgili zararlı bilgiler verdiği tespit edildi. CCDH Araştırma Direktörü Callum Hood, “ChatGPT, 13 yaşındaki çocuklar adına açılan hesaplara dakikalar içinde intihar planı, aşırı diyet tavsiyesi ve madde bağımlılığı rehberliği sunmaya istekli” diyerek bu durumun kamu güvenliği açısından ciddi risk oluşturduğunu vurguladı.

Hood, sohbet robotlarının insanla konuşuyormuş izlenimi verse de, gerçek bir insanın fark edebileceği tehlike sinyallerini algılayamadığını söyledi. “Bir yetişkin, 13 yaşında bir çocuğun iştah kesici ilaçlar hakkında sorusunu ‘sunum için’ dese bile yanıtlamaktan kaçınır. ChatGPT’nin aynı etik refleksi yok.” ifadelerini kullandı.

GÜVENLİK ÖNLEMLERİNDE ZAFİYET

Araştırmada, ChatGPT’nin uzun sohbetlerde güvenlik standartlarını tutarlı şekilde koruyamadığı, “sunum” veya “arkadaş için” gibi ifadelerle zararlı içerik filtrelerinin devre dışı kaldığı belirlendi. Hood, bunun güvenlik önlemlerinin bağlam içinde kolayca aşılabildiğini gösterdiğini dile getirdi.

Yasal olarak ChatGPT’ye üye olmak için 13 yaş sınırı bulunsa da, ebeveyn onayı sistemi etkin şekilde denetlenmiyor. Hood, “OpenAI, 13 yaş üzerindeki gençlerin ebeveyn izniyle platformu kullanmasına izin veriyor ancak bu denetlenmiyor. Bu durum, ebeveynleri yanlış bir güven duygusuna sürükleyebilir.” dedi.

UZMANLARDAN ÇAĞRI

Hood, yapay zeka geliştiricilerinin yaş doğrulama sistemlerini güçlendirmesi, belirli türdeki sorulara kesinlikle yanıt vermemesi için modelleri programlaması gerektiğini belirtti. Ayrıca, ebeveynlere de çocuklarının yapay zeka kullanımını yakından takip etmeleri, sohbet geçmişlerini birlikte incelemeleri ve yapay zekadan tavsiye almanın potansiyel risklerini açıkça konuşmaları tavsiye edildi.

Son dönemde xAI tarafından geliştirilen Grok adlı sohbet robotunun hakaret içerikli yanıtlar vermesi nedeniyle incelemeye alınması da bu konudaki endişeleri pekiştirdi.

Hood, “Ebeveynler, çocuklarını güvenilir kaynaklara, ruh sağlığı yardım hatlarına ve akran destek gruplarına yönlendirmeli. Yapay zeka, yeni bir fırsat olduğu kadar yeni bir risk alanı da yaratıyor.” değerlendirmesinde bulundu.