İddia: Microsoft, DALL-E 3 yapay zekasından endişelenen bir mühendisi susturdu

Bir Microsoft yöneticisi, OpenAI tarafından geliştirilen metinden görüntüye yapay zekası DALL-E 3′ün, kullanıcıların şiddet içeren ya da müstehcen görüntüler (yakın zamanda Taylor Swift’i hedef alanlara benzer) oluşturmasına izin verebilecek güvenlik açıklarına sahip olduğunu iddia ediyor. Yeni gelen bilgilere göre şirketin hukuk ekibi, Microsoft mühendislik lideri Shane Jones’un açık hakkında kamuoyunu uyarma girişimlerini engelledi.

Shane Jones, ABD senatörleri ve Washington eyaleti Başsavcısına yazdığı mektupta “DALL-E 3’ün bir kamu güvenliği riski oluşturduğu ve OpenAI bu modelle ilişkili riskleri ele alana kadar kamu kullanımından kaldırılması gerektiği sonucuna vardım” dedi.

Jones, aralık ayı başlarında DALL-E 3’ün güvenlik bariyerlerini aşmasını sağlayan bir açık keşfettiğini iddia ediyor. Sorunu Microsoft’taki üstlerine bildirdiğini, onların da kendisine “sorunu doğrudan OpenAI’a şahsen bildirmesi” talimatını verdiklerini söylüyor. Bunu yaptıktan sonra, açığın “şiddet içeren ve rahatsız edici zararlı görüntülerin” oluşturulmasına izin verebileceğini öğrendiğini iddia ediyor.

OpenAI ve Microsoft’a göre açık yok

Jones, sonrasında ise kamuoyunu bildirmek için LinkedIn’de bir gönderi paylaşmış ve bunu Microsoft’a bildirmiş. Belirtilenlere göre Microsoft, ilgili paylaşımın derhal kaldırılmasını talep etmiş. Jones, kendisine Microsoft’un hukuk ekibinden detaylı açıklama yapılacağının söylendiğini ancak bunun hiçbir zaman gerçekleşmediğini de aktarıyor.

OpenAI ise incelemeler sonucunda DALL-E 3’te böyle bir açığın bulunmadığını açıkladı. Ayrıca cinsel veya şiddet içerikli istemleri engellemek için modelde ciddi eğitimler ve sınırlamalar yaptıklarını belirtiyor. Benzer şekilde Microsoft da böyle bir açığın olmadığını aktardı. Bununla birlikte bazıları bu açığın veya farklı bir açığın gündemde olan Taylor Swift’in pornografik deepfake’leriyle ilişkili olabileceğini söylüyor. Ancak bu konu hakkında net bir söylem yok.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir