wmaraci reklam

Yapay Zeka Neden Sürekli Yalan Söylüyor?

Hep mi öveceğiz? Biraz da eleştirelim. Yapay zeka dil modelleri sürekli olarak yalan söylüyor ve söylediği yalanların da sonuna kadar arkasında duruyor. Tamam ama bu hatayı neden yapıyor? Gelin açıklamaya çalışalım.

Eğer “Neymiş bu, bir muhabbet edeyim, bir şeyler sorayım” diyerek dil modelleriyle muhabbet ettiyseniz siz de görmüş olmalısınız. Yapay zeka bazı sorulara yanlış cevaplar veriyor ve doğru söylediğini diretmeye başlıyor. Aslında bunun temelde bazı acı sebepleri var. Konunun asıl muhatabıysa elbette internet.

Veriler Toplandı Fakat Nasıl?

İnternet uçsuz bucaksız bir derya değil mi? OpenAI da ChatGPT’nin sürümlerindeki bilgileri bu deryadan topladı. Hem de insanlığı analiz etmesi için veri ayırt etmeden. Politik doğrucu bir yaklaşımla konuşuyor olsa da Reddit’ten tutun da Wiki’ye kadar bu uçsuz bucaksız ortamda ne varsa yaladı yuttu.

Wiki’de dahi doğruluğu kuşkulu onlarca bilgi var, unutmayın ki karşımızdaki yapay zeka modeli de Eflatun’un Devlet’inde yer alan o her şeyi doğru bilen filozof değil. Karşısına ne çıkarsa onu görüyor. Elbette yazılım burada bir süzgece sahip ve bir şeyin doğru olup olmadığını kaynaklarıyla sorguluyor. Ancak bunun çok sık hataya sebep olabildiğini de görmüş olduk.

İnternette sadece şaka olarak dahi pek çok bilginin yanlış girilebildiği bir atmosfer olduğunu düşünürsek dil modeli de bu bilgilerle beslendiğinde ilginç sonuçlar ortaya koyabiliyor. Unutmayın model yalnızca İngilizce ya da Türkçe kaynaklarla beslenmedi. Archive.org da dâhil olmak üzere var olan açık kaynaklı internetin tamamıyla beslendi. Bilgi karmaşasını hayal edebiliyor musunuz?

ChatGPT Rakibi Tamamen Yerli ve Milli Yapay Zeka: MAIN
İlginizi Çekebilir!

ChatGPT Rakibi Tamamen Yerli ve Milli Yapay Zeka: MAIN

Yapay zeka, günümüzde artık her alana dahil olmaya başlamıştı ki sonunda beklenen yerli ve milli yapay zekamız duyuruldu: MAIN! Gelişen teknolojinin en büyük nimetlerinden birisi olan yapay zeka, dünya devi teknoloji firmaları tarafınd...

Yalanın Sebebi Ne?

Her ne kadar çok övüyor olsak da yapay zeka, ilerleme kabiliyeti olan bir algoritmadan ibaret ve düşünme yetisi her neyse ona sahip değil. İşin özü, yalan söylemiyor. O doğru olduğunu düşündüğü bilgileri derliyor ve bunu iletiyor. Arkasında da duruyor. Zira bildiği şey bu.

Örneğin ünlü bir Türk oyun YouTuber’ı olan Enis Kirazoğlu hiç canlı yayınlarıyla tanınmıyor olsa da, ChatGPT’ye sorduğumda onun bir Twitch yayıncısı olduğunu söylemişti. Muhtemelen okuduğu bir İngilizce kaynakta bu bilgi geçiyordu. Hiç oturup videolarını izlemediğini de düşünürsek, o bana sadece bildiği şeyi aktardı. Doğru olup olmamasıyla henüz ilgilenemiyor, çünkü böyle bir teyit mekanizması yok. Belki de ilerleyen sürümlerde gelecektir, kim bilir?

Dikkatli Olmalıyız

Eğer içeriklerinizde bu programlardan faydalanıyorsanız, mutlaka çok ama çok dikkatli olmalı ve yazıda geçen net bilgileri teyit etmeye çalışmalısınız. Özellikle sağlık alanında verdiği bilgi ve tavsiyeler yanlış çıktığı zaman çeşitli sorunları da beraberinde getirebilir çünkü. Yazıları olduğu gibi zaten kullanmayalım, ancak “robot olduğu anlaşılmasın yeter” yaklaşımındansa, daha detaylı bir editörlük uygulamaya çalışalım. Zira o kendisinden emin, fakat yanlış bildiklerinin de arkasında duran bir karakteri olduğu çok açık.

Sizin yakaladığınız ‘yapay zeka yalanları’ varsa yorumlarda bizimle paylaşabilirsiniz. Sonraki içeriklerimizde görüşmek üzere, sağlıcakla kalın.

Bu içeriğe tepkini gösterebilirsin! 👍 3.6 / 5 (5 değerlendirme)

5 kişi bu içerik hakkında tepkilerini gösterdi. Sen de tepkini göstererek yazarlarımıza geri bildirim verebilirsin.

Yorumunuz

    Son Yorumlar

    Site Ayarları
    • Tema Seçeneği
    • Site Sesleri
    • Bildirimler
    • Özel Mesaj Al