“Geceleri beni uykusuz bırakıyor”
OpenAI CEO’su Sam Altman ABC News’e verdiği röportajda yapay zeka teknolojisinin işgücünü, seçimleri ve dezenformasyonun yayılmasını etkileyebileceğinden “korktuğunu” söyledi. ChatGPT ve GPT-4 gibi yapay zeka modellerinin başarısından gurur duysa da Altman, yapay zekanın olası tehlikeli uygulamalarının kendisini uykusuz bıraktığını kabul etti.
Sadece birkaç ay önce piyasaya sürülen ChatGPT, şimdiden tarihin en hızlı büyüyen tüketici uygulaması olarak kabul ediliyor. ChatGPT sadece birkaç ay içinde aylık 100 milyon aktif kullanıcıya ulaşarak rekor kırdı. TikTok‘un bu kadar kullanıcıya ulaşması dokuz ay, Instagram‘ın ise yaklaşık üç yıl sürdüğünü belirtelim.
Otoriter ülkeler endişelendiriyor
Altman ayrıca yaptığı açıklamalarda “Bu modellerin büyük ölçekli dezenformasyon için kullanılabileceğinden özellikle endişeliyim” dedi. “Artık bilgisayar kodu yazmaya başladıklarına göre, modeller saldırgan siber saldırılar için kullanılabilir” ifadelerini kullanan Altman, aslında yapay zekanın karanlık yüzüne ışık tutuyor.
Yapay zeka halüsinasyonu
OpenAI’ye göre GPT-4, görüntüleri girdi olarak anlama yeteneği de dahil olmak üzere bir önceki iterasyona göre büyük iyileştirmelere sahip. Demolarda GTP-4’ün birinin buzdolabında ne olduğunu açıkladığı, bulmacaları çözdüğü ve hatta bir internet meme’inin arkasındaki anlamı ifade ettiği görülüyor.
Ancak Altman’a göre ChatGPT gibi yapay zeka dil modelleriyle ilgili en büyük sorun yanlış bilgilendirme. ChatGPT veya diğerleri, kullanıcılara gerçekte doğru olmayan bilgiler verebiliyor. Üstelik bu yanlış bilgileri kendinden emin bir şekilde savunuyor ve arkasında duruyor. Buna yapay zeka halüsinasyonu deniyor. OpenAI’ye göre modelin bu sorunu kısmen, ezber yerine tümdengelimli akıl yürütme kullandığı için yaşanıyor. Ancak OpenAI, modellerinin ezber yapmasını değil muhakeme yeteneğine dayalı sonuçlar vermesini istiyor. Altman ve ekibi, modellerinin eninde sonunda gerçeği kurgudan ayırmak için interneti ve kendi tümdengelimli muhakemesini kullanacağına inanıyor.