OpenAI, GPT-4’ü eğitmek için YouTube videolarını kullandı!

2021’in sonlarına doğru yapay zeka şirketi OpenAI’ın bir tedarik sorunuyla karşı karşıya kaldığı belirtiliyor. Ancak bu tedarik sorunu bir ürün olarak nitelendirilmiyor. OpenAI, son yapay zeka sistemini geliştirirken internetteki tüm saygın İngilizce metin rezervlerini tüketmişti. Teknolojisinin bir sonraki sürümünü eğitmek için daha fazla veriye ihtiyacı vardı. Aktarılanlara göre OpenAI, bu veri ihtiyacını karşılamak için YouTube videolarını kullandı.

OpenAI, GPT-4’ün eğitiminde YouTube’u kullandı

Geçtiğimiz Eylül 2022’de OpenAI, konuşma tanıma ve transkripsiyona yönelik yapay zeka modeli Whisper’ı tanıttı. New York Times’ın raporuna göre Whisper, YouTube videolarındaki sesleri yazıya dökerek GPT-4’ü daha akıllı hale getirecek yeni konuşma metinleri oluşturdu. OpenAI’ın Whisper’ı kullanarak 1 milyon saatten fazla videonun transkripsiyonunu yaptığı bildiriliyor. Times, OpenAI başkanı Greg Brockman‘ın kullanılan videoların toplanmasında bizzat çalıştığını yazıyor.

Bu haberin YouTube CEO’su Neal Mohan’ın geçtiğimiz günlerde verdiği bir röportajdan sonra gelmesi dikkat çekici. Mohan, röportajda OpenAI’ın yeni metinden video oluşturucusu Sora’yı eğitmek için YouTube videolarını kullandıysa bunun platformun politikalarının açık ihlali olacağını söylemişti.

Google sözcüsü Matt Bryant, yaptığı açıklamada, Google kuralları uyarınca YouTube içeriğinin izinsiz olarak kazınması ya da indirilmesinin yasak olduğunu ve OpenAI’ın böyle bir kullanıma giriştiğinden de haberdar olmadıklarını söyledi. Öte yandan OpenAI ise bunun yasal olarak tartışmalı bir konu olduğunu ancak yine de “adil kullanım” alanına girdiğine inanıyordu. Ek olarak Google da Gemini gibi yapay zekalarını eğitmek için sınırlı YouTube içeriğini kullandığını kabul ediyor, ancak bunlar onayı alınmış içerik üreticilerin videolarını kapsıyor.

Veri, yeni altın oldu

Veri hacmi yapay zeka konusunda en değerli faktör olarak kabul ediliyor. Bir yapay zeka modelinde kullanılan veri ne kadar çoksa dolaylı olarak modelin o kadar gelişmiş olduğu varsayılıyor. Önde gelen sohbet robotu sistemleri, üç trilyon kelimeye kadar uzanan dijital metin havuzlarından ya da 1602’den beri el yazmalarını toplayan Oxford Üniversitesi Bodleian Kütüphanesi‘nde depolanan kelime sayısının yaklaşık iki katını öğrenmiş durumda.

Wikipedia ve Reddit gibi sitelerin bulunduğu internet yıllarca sonsuz bir veri kaynağı olarak kullanıldı. Ancak yapay zeka geliştikçe, teknoloji şirketleri daha fazla veriye aç hale geldi, artık bu sitelerdeki veriler tüketildi. Her gün arama sorguları ve sosyal medya gönderileri üreten milyarlarca kullanıcısı olan Google ve Meta, gizlilik yasaları ve kendi politikaları nedeniyle yapay zeka için bu içeriğin çoğundan yararlanamıyordu. Ancak geçtiğimiz aylar ve yıllarda yapılan değişikliklerle bazı içeriklerin eğitim verisi olarak kullanılmasının önü açıldı.

Bununla birlikte teknoloji şirketlerinin internetteki yüksek kaliteli verileri 2026 yılına kadar tüketmesi bekleniyor. Yani şirketler veriyi üretildiğinden daha hızlı kullanmaya başlıyor. Teknoloji şirketleri yeni verilere o kadar aç ki bazıları “sentetik” bilgi geliştiriyor. Sentetik verileri insanlar tarafından oluşturulan organik veriler değil, bizzat yapay zeka tarafından üretilen (ses, görsel, metin ve kodlar) verileri içeriyor. Başka bir deyişle, sistemler kendi ürettikleri verilerden öğreniyorlar.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir