Bilgi mi, Yanılsama mı?
“Yapay zekâ yanıt veriyor, peki kim doğruluyor?”
Yapay zekâ destekli tarayıcıların, Google’ın tahtını salladığı yorumları her geçen gün artıyor. ABD Adalet Bakanlığı ve Avrupa Birliği’nin, Google’ı tekelleşme iddiasıyla araştırdığı şu günlerde alışılmış tarayıcıların devri bitiyor gibi görünüyor.
Açıkçası zengin şirketlerin devriymiş değilmiş; biri gitmiş diğeri gelmiş, bu benim alanım değil. Peki yapay zekânın tehlikesi ben ve medyacılar için nerede başlıyor?
Tabii ki teyit, dezenformasyon, manipülasyon deyince kulak kabartıyoruz. Yapay zekâ, düz arama motorlarının yerini alırsa insanlar artık bilgiye kaynaklarından erişmeyecek. Araştırmayacak, sorgulamayacak, çoklu kaynak taraması yapmadan sadece soru soracak ve cevap alacak.
Yani eleştiri yetimizi rafa mı kaldıracağız?
Yapay zekâya bir soru sorduğumuzda karşımıza tek bir “derlenmiş cevap” çıkarıyor. Oysa arama motorlarında kullanıcı; başlıkları, kaynakları, tarihleri, farklı görüşleri görebilir. Bu da bilgi karşılaştırması ve kaynak değerlendirmesi yapma imkânı tanır. İnsan ise doğası gereği kolaya çabuk alışır, beyni tembelleşmeye yatkındır. Bu kolaycılıkla eleştirel gücümüzü kaybetme noktasına gelebiliriz.
Yapay zekânın sunduğu “derleme cevaplar”, eğer nereden geldiği belli değilse, kaynağı sorgulanmamışsa ve hak ettiğinden fazla güveniliyorsa; bu cevapların yanlış, taraflı ya da komplo içerikli olma ihtimali yüksektir. Bu da onları potansiyel olarak tehlikeli hâle getirir. Sonuçta yapay zekâ metin havuzlarından yani veriye dayalı öğrenirler.
Bu metinlerin içinde gazeteler, bloglar, sosyal medya yazıları, Wikipedia, araştırmalar vs. yer alır. Yani, internette hangi bilgiye ya da veriye dayandığını bilmeden, fark etmeden baskın ve egemen söylemlerin etkisine girmek kaçınılmaz olur. Yapay zekâ, içerikleri denetlemez; doğruyla yanlışı ayırt etmez. Sadece istatistiksel olarak en olası, en "uygun" cevabı üretir. Bu durum da, iktidarlar ya da güçlü şirketler tarafından rahatlıkla çıkar ve manipülasyon amacıyla kullanılabilir.
Örneğin:
- Filistin-İsrail çatışması hakkında çok sayıda Batı yanlısı içerik varsa, model bunu esas alır.
- Kadın düşmanı içerikler fazlaysa, model pasif biçimde bu önyargıyı yansıtabilir.
- İklim inkarcılığı gibi gruplar çok içerik üretiyorsa, onların söylemleri bile modelde yer edinebilir.
Bu da bizi şuraya getirir: "Nötr görünen bir cevap, sistemik bir baskının yeniden üretimi olabilir."
Bugün bir bilginin sahte mi gerçek mi olduğunu anlamak her zamankinden daha zor. Eskiden yanlış bir şey yaymak için en azından bir kaynağa, bir çabaya ihtiyaç vardı. Şimdi ise yapay zekâ ve sosyal medya eliyle, kılıfı düzgün ama içi boş bilgiler dakikalar içinde dolaşıma sokulabiliyor. Sahte akademik makaleler, uydurma istatistikler, kulağa çok doğruymuş gibi gelen ama kaynağı belirsiz cümleler... Tüm bunlar, dijital dünyanın yeni sahte gerçekliği gibi.
Ve en tehlikelisi de şu: Bunlar artık amatörce değil, oldukça “profesyonel” görünüyor. İkna edici, güven veren, doğru gibi duran ama aslında yalanla işlenmiş içerikler... O yüzden artık daha dikkatli olmamız gerekiyor.
Gerçeklik algılarımızla oynanan bu çağda, yapay zekâdan gelen her cevabı "doğru" saymak yerine, onu bir fikir asistanı gibi görmek; bize sunduğu bilgiyi süzmek, karşılaştırmak, doğrulamak zorundayız.
Uyuşukluğumuzu atıp silkelenmemiz gerek. Bilgiyi sorgulamak, sadece gazetecilerin değil, hepimizin sorumluluğu. Dijital çağda en kıymetli şey hız değil; sağlam, güvenilir ve düşünülmüş bilgi. Bu yüzden kitaplar, akademik yayınlar, farklı kaynaklar hâlâ önemli. Dijital okuryazarlıık eğitimi ise artık bir zorunluluk olmalı. Çünkü bir cevap ne kadar hızlı gelirse gelsin, yanılgıya kapılmamak için hakikati bulmak gün geçtikçe zorlaşıyor; zaman ve emek istiyor.