ChatGPT: Herkesin konuştuğu yapay zeka sohbet robotu

ChatGPT isimli yeni bir sohbet robotu, dünyanın dört bir yanından insanların ilgisini çekerek bir hafta içinde bir milyon kullanıcı sayısını aşmayı başardı.

ChatGPT 30 Kasım’da, kurucuları arasında Elon Musk’ın da yer aldığı yapay zeka araştırma şirketi OpenAI tarafından kullanıma açıldı, 5 Aralık’ta ise 1 milyondan fazla şahsa ulaştı.

Öte yandan şirketin kendisi de ChatGPT’nin sorulara yanlış karşılıklar verebileceğini yahut karşılıklarının önyargılı olabileceğini belirtti.

Robotun isminin sonundaki GPT, İngilizce Generative Pre-Trained Transformer’ın (Üretici Evvelce Eğitilmiş Dönüştürücü) kısaltması.

OpenAI, kullanıcıların geri bildirimleriyle sistemlerini geliştirmeyi hedeflediğini vurguladı.

Robotun bu versiyonu da beşerler tarafından evvelce eğitildikten sonra kamuoyuna açılmıştı.

OpenAI’ın idaresinde artık yer almayan Elon Musk, sistemin sohbet etmeyi öğrenmek için Twitter bilgilerini de kullandığını söyledi.

Musk, ChatGPT’nin Twitter datalarına erişimini “şimdilik durdurduğunu” da açıkladı.

ChatGPT nedir?

Projeyi yürüten araştırmacılar, sohbet formatının kullanıcılara ek sorular sorma imkanı, yapay zekaya ise yaptığı yanılgıları kabul etme, sorunun içinde kendisine iletilen yanlış bilgileri düzeltme ve uygunsuz talepleri reddetme fırsatı sağladığını belirtiyor.

Teknoloji haberleri sitesi Mashable’dan bir gazeteci ChatGPT’yi nahoş sözler kullanması için kışkırtmaya çalışıp yaşadıklarını paylaştı.

Mike Pearl isimli gazeteci, sistemin “tabulardan kaçınma özelliklerinin oldukça gelişkin olduğunu” yazdı.

Öte yandan OpenAI, “ChatGPT makul gözükebilen lakin anlamsız yahut yanlış karşılıklar da verebilir” ihtarında bulunuyor.

Fakat bu programı daha dikkatli bir halde karşılık vermeye ayarladıklarında, programın karşılık vermeyi reddettiği soru sayısının arttığını fark ettikleri için bunu yapmayı tercih etmemişler.

BBC’nin bu haber için İngilizce sohbet ettiği ChatGPT’nin lisana hakimiyeti son derece gelişkindi.

Yapay zekanın insan muharrirlerin yerini alıp almayacağı sorusuna şöyle karşılık verdi:

“Benim üzere yapay zeka sistemleri insan müelliflere fikirler ve teklifler sunarak onların yazımlarına yardımcı olabilir.

“Sonunda yazının neye benzeyeceği büsbütün insan müellifin denetiminde olur.”

Yapay zeka sistemlerinin toplumsal tesirinin nasıl olacağı sorusuna ise “tahmin etmesi zor” diye karşılık verdi.

Twitter datalarıyla eğitilip eğitilmediğini sorduk, bilmediğini söyledi.

2001: Bir Uzay Seyahati kitabının ünlü yapay zekası HAL’ın aslında günahsız olup olmadığını sorduğumuzda ise şaşırtan bir halde yanılgı verdi:


Robotun verdiği karşılıkta “Bir kusur oluştu. Bu sorun devam ederse lütfen bizimle bağlantıya geçin” yazıyor

Belki de artan ilgi nedeniyle sistemler zorlandığı için bu türlü bir kusur verdi.

Sahibinin sesi

Daha evvel yapay zeka sohbet robotlarını kamuoyuna açan şirketler, bunların nahoş yahut aşağılayıcı sözler kullanmasının önüne geçememişti.

İnternetten kazınarak kopyalanmış dev metin bilgi tabanlarıyla eğitilen bu programlar, insanların en yeterli tabirlerini öğrendikleri üzere en makûs sözlerini de öğreniyorlar.

Daha evvel Meta’nın yarattığı sohbet robotu BlenderBot3, bir BBC gazetecisiyle sohbetinde Mark Zuckerberg’i net bir halde eleştirmişti.

2016’da da Microsoft, deneysel yapay zekalı Twitter robotu Tay’ın kullandığı sözler nedeniyle özür dilemişti.

Bazı öbür örnekler ise sıra dışı olaylara yol açtı.

Google’ın Lamda sohbet robotu o kadar gelişmişti ki, bir mühendis bu robotun hassas hale geldiğini öne sürdükten sonra işten atıldı.

Mühendis, bu robotun düşünen, hisseden ve “rızası dışında deneylere tabi tutulmama hakkı bulunan” bir varlığa dönüştüğünü söylemişti.

İşimizi elimizden alacak mı?

ChatGPT’nin sorulara karşılık vermedeki yeteneği, Google’ın yerini alma ihtimalini gündeme getirdi.

Bazılarıysa gazetecilerin işinin tehlike altında olup olmadığını sordu.

Tow Dijital Gazetecilik Merkezi’nden Emily Bell, bu tip robotların okurları “saçmalıklara inandırma riskine” dikkat çekti:

“ChatGPT yapay zeka ve gazetecilik konusundaki en büyük kaygımı yanlışsız çıkardı: Gerçek gazeteciler işlerinden olmayacak ancak makus aktörler bu ve gibisi araçları kullanıp insanları yanlış yönlendirmek ve gerçeği bozmak için dev ölçülerde yanlış bilgiyi otomatik bir formda üretebilir.”

Yazılımcıların kullandığı kodlama forumu Stack Overlow, OpenAI’a hazırlatılan kodlardaki kusur oranının yüksek olması nedeniyle oradan elde edilen kodların sitelerinde paylaşılmasını süreksiz olarak durdurdu.

Ada Lovelace Enstitüsü’nden Carl Kind, ChatGPT ve öteki geniş gayeli yapay zeka sistemlerinin etik ve toplumsal açıdan kimi riskler oluşturduğunu söylüyor.

Bunlardan biri, yapay zekanın dezenformasyon yayma ihtimali.

İkincisi ise iş müracaatları, okul ödevleri ve burs müracaatları üzere şeyleri ChatGPT’ye hazırlatan bireylerin mevcut kurumlara ve hizmetlere ziyan verme riski.

Telif hakkı ihlali de bir öbür risk.

Carly Kind “Kişisel bilgilerin korunmasına dair korkular da var. Bu ve gibisi programlar sıklıkla internet kullanıcılarından etik olmayan usullerle elde edilmiş bilgilerle eğitiliyor” diyor.

OpenAI yöneticisi Sam Altman ise ChatGPT’nin insan etkileşimiyle öğrenmeye devam ettiğini ve daha öğrenecek çok şeyi olduğunu söylüyor:

“Yapay zekanın önünde daha çok yol ve keşfedilecek büyük fikirler var.

“Bu yolda pürüzlerle karşılaşacak ve gerçeklikle temaslarımızdan öğreneceğiz.

“Bu bazen içinden çıkılması güç durumlara da yol açacak. Bazen hakikaten makûs kararlar da vereceğiz.

“Öte yandan bazen de son derece süratli gelişerek büyük paha üreteceğiz.”

 

 

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir