
Apple, yapay zekâ sistemlerinin İngilizce dışındaki dillerde sergilediği başarısız performansa çözüm bulmak amacıyla yeni bir araştırmaya imza attı. Büyük dil modellerinin genellikle İngilizce odaklı geliştirildiğine dikkat çeken şirket, bu durumun diğer dillerde yapılan çıktılarda doğallık kaybına ve anlamsal sapmalara yol açtığını belirtiyor. Apple’ın da ortak yazarlarından biri olduğu bu yeni araştırma, İngilizce dışı dillerdeki dil üretimindeki yapaylık sorununu somut biçimde ele alıyor.
Apple, yapay zekadaki İngilizce dominasyonuna çözüm bulacak
Şirketin açıklamasına göre, mevcut büyük dil modelleri, çok dilli destek sunsalar bile baskın şekilde İngilizce dil yapısına göre şekilleniyor. Bu da, yabancı dilde yapılan çıktılarda İngilizce düşünce kalıplarının etkili olmasına neden oluyor. Fransızca veya Çince gibi dillerde yapılan üretimlerde bile, İngilizce’nin sözdizimi ve kelime seçimleri modele sızarak ifadelerin doğallığını zedeliyor. Apple, bu farkın kimi zaman küçük nüanslarla ortaya çıktığını, kimi zaman ise güvenlik açıkları doğuracak kadar ciddi hale gelebildiğini hatırlatıyor. 2023 yılında Carnegie Mellon Üniversitesi tarafından yapılan bir çalışmada, İngilizce dışındaki girdilerin güvenlik filtrelerini daha kolay aşabildiği ortaya konmuştu.

Apple, Inria Paris, École Polytechnique ve Sapienza Üniversitesi’nden araştırmacılarla birlikte geliştirdiği çalışmada, modellerin yerel bir konuşur gibi dil kullanıp kullanmadığını anlamak için iki yeni ölçüt tanımladı: sözcüksel doğallık (kelime seçimindeki yerellik) ve sözdizimsel doğallık (cümle yapısındaki doğallık). Bu ölçütler doğrultusunda modellerin Fransızca, Çince ve İngilizce Wikipedia makaleleriyle karşılaştırmaları yapıldı. Sonuçlar, İngilizce merkezli önyargının oldukça güçlü olduğunu ve Çin menşeli Qwen modelinin dahi Çince dahil tüm dillerde beklentilerin gerisinde kaldığını ortaya koydu. Meta’nın LLaMA 3.1 modeli en doğal çıktıları üreten yapay zekâ olarak öne çıksa da, insan seviyesinden hâlâ uzak bir performans sergiledi.
iPhone 17 Air, pil teknolojisiyle dikkat çekecek!
Apple, bu sorunla başa çıkmak için yenilikçi bir eğitim yöntemi geliştirdi. Geleneksel olarak yanlış örnekler manuel olarak toplanırken, Apple bunun yerine “back-translation” (geri çeviri) yöntemini kullandı. Doğal bir şekilde yazılmış Çince bir metin önce İngilizceye çevrildi, ardından yeniden Çinceye döndürüldü. Bu süreçte oluşan yapaylıklar —yani “çeviri izleri”— modelin tercih etmemesi gereken örnekler olarak belirlendi. Orijinal doğal yanıtlar ise modelin öğrenmesi gereken ideal çıktılar olarak kullanıldı.
Bu yöntem sayesinde Apple, modelin kelime seçiminde ve dil bilgisi yapısında büyük gelişmeler elde etti. Dahası, bu iyileştirme, standart testlerdeki genel performansı düşürmeden gerçekleştirildi. Böylece yapay zekâ sistemlerinin İngilizce dışındaki dillerde daha doğal ve güvenilir dil üretimi yapmasının önü açılmış oldu.