Teknoloji

Yapay Zekâ İnsanları Nasıl Kandıracağını Çoktan Öğrenmiş

Yapay zekâ son yılların en popüler teknolojilerinden biri ve pek çok uzmana göre de internetin icadından sonraki en en önemli teknolojik atılımlardan biri. Günümüzde üretken yapay zekâlar görseller oluşturmada, kod yazmada, verileri analiz etmede ve pek çok başka alanda kullanımımıza açık. Yapay zekânın becerileri arasına bizi kandırabilmek de eklenmiş gibi gözüküyor. 

Yeni bir çalışma, bazı yapay zekâ sistemlerinin “gerçekten başka bir sonucu elde etmek için başkalarında yanlış inanışlar oluşturabildiğini” ortaya koydu ki başkalarında yanlış inanışlar oluşturmaya bizler kandırmaca ya da aldatmaca diyoruz. Bu yapay zekâ modelleri arasında yer alan Meta’nın Çiçero modeli ise “yalan uzmanı” çıktı. 

Kandırmak daha kolay geliyor

Aslında yapay zekâ sistemleri insanlara karşı dürüst olmaları amacıyla geliştiriliyor. Öte yandan insanları kandırmaya yönelik numaraları ise yapay zekâ modelleri kullanılan eğitim materyallerinden öğreniyorlar. Sonrasında da “insanları kandırmak onları ikna etmekten daha kolay olduğu için” bu yolu seçiyorlar. 

Araştırmanın baş yazarı olan Peter S. Park, “Genel anlamda, yapay zekâ kandırmacalarının arttığını düşünüyoruz çünkü yapay zekâların verilen görevi gerçekleştirmeleri için en iyi yol olduğu belli oldu. Kandırmaca onların amaçlarına ulaşmalarına yardımcı oluyor.” ifadesini kullandı. 

Araştırma iki kısımda yapıldı. Bunlardan birinde ChatGPT gibi genel amaçlı, birinde ise Meta’nın CİCERO yapay zekâ modeli gibi özel amaçlı yapay zekâ modelleri incelendi. CİCERO, Diplomacy adlı oyunda yalanları, entrikaları ve diğer oyunculara ihanet edebilmesiyle dikkat çekti. GPT-4 ise CAPTCHA testini geçebilmek için “görme bozukluğu olduğu” yalanını söyledi. 

Araştırmacılar, kanun yapıcıları “aldatıcı yapay zekâ modellerine karşı daha sıkı denetim gerçekleştirmeye” çağırdı. Araştırma Patterns‘de yayımlandı.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu