Google, yapay zekasının neden bazen saçma sapan şeyler söylediğini açıklıyor

acidizing

New member
Google, çevrimiçi aramayı kolaylaştırmak için Gemini'yi kullanan AI Genel Bakış özelliğinden gelen tutarsız yanıtları ele alıyor. Arama devine göre bu saçmalık, mevcut bilgilerin eksikliğinden kaynaklanıyordu.



Geçtiğimiz hafta Google, AI Genel Bakış özelliğini Amerika Birleşik Devletleri'nde kullanıma sundu. Temel alınan işlevsellik İkizler dili modeli, arama motoru kullanıcılarına yardımcı olmayı amaçlayan özetler sunar. Sonuçların üst kısmında gösterilen bu özetler, İnternet kullanıcısının sorusuna birkaç kelimeyle yanıt vermeyi amaçlamaktadır. Google tarafından elde edilen sonuçlardan en alakalı bilgilerin bir araya toplanmasıyla oluşturulurlar.

Ne yazık ki yapay zeka hızla dikkatleri üzerine çekti onun saçma sözleri. Tüm üretken yapay zekalar gibi Gemini de bazen saçma sapan konuşmaya başlar. Yapay zeka uzmanları bu fenomeni “halüsinasyonlar” olarak adlandırıyor. Bu durumda yapay zeka, bazı İnternet kullanıcılarına pizzalarına yapıştırıcı eklemelerini veya günde bir taş yemelerini önerdi. Görünüşe göre Gemini, internetten aldığı yanlış bilgilerle kandırılmıştı.

Ayrıca okuyun: Google korkusu Microsoft'u yapay zekaya itti
Google parmakla işaret ediyor “veri geçersizliği”


Olaydan birkaç gün sonra Google geri döndü. İkizler burcunun saçmalıklarının nedenleri. Google'ın arama sorumlusu Liz Reid, bir blog yazısında Gemini'nin tutarsız özetlerinin çoğunlukla şunlardan kaynaklandığını söylüyor: “veri geçersizliği”.

Diğer sohbet robotlarından farklı olarak AI Genel Bakış işlevi, yalnızca bir eğitim derlemindeki bilgilere dayalı yanıtlar oluşturmaz. Motorla sinerji içinde çalışmak için Gemini “temel web sıralama sistemlerimizle entegre ve ilgili sonuçların belirlenmesi gibi geleneksel “arama” görevlerini gerçekleştirmek üzere tasarlandı”. Yapay zeka internette ilgili bilgiyi bulamadığında düşük kaliteli içeriğe güvenerek yanlış yanıtlar üretme eğiliminde olabilir. Mountain View devinin bahsettiği şey bu “boş” Çoğunlukla daha az yaygın olan sorular hakkında bilgi. Bazen var “Bir konuyla ilgili sınırlı miktarda yüksek kaliteli içerik”, Google'a pişman oldum.

Kötü bir yorum


Google'a göre aynı zamanda İkizler burcu da oluyor isteği yanlış yorumluyor İnternet kullanıcısının adının baş harfi veya internette bulunan bilgileri yanlış anlaması. Bazı durumlarda hiciv içeriği yapay zeka tarafından tam anlamıyla algılanıyor. Gemini internet kullanıcılarına her gün bir taş yemelerini tavsiye ettiğinde olan da buydu.

Bu anlama hataları tutarsız bir özetin yazılmasına yol açabilir. Google bu vakaların çok nadir olduğunu belirtiyor. Her şeyden önce şirket, yapay zekasının bunu yapmadığını iddia ediyor“Genellikle halüsinasyon görür” Olumsuz. İnternette bulduklarını yanlış anlıyor ama yoktan saçma cevaplar icat etmiyor. Gemini pizzaya yapıştırıcı eklenmesini önerdiğinde yapay zekanın bir forumda ortaya çıkan bilgilerle kandırıldığı anlaşılıyor:

“Forumlar genellikle orijinal, ilk elden bilgi için harika bir kaynaktır, ancak bazı durumlarda peynirin pizzaya yapışması için yapıştırıcı kullanmak gibi yararlı olmayan tavsiyelere de yol açabilirler.”
Sorunlara rağmen Google, AI Genel Bakış sonuçlarından memnun olduğunu söylüyor. Firmaya göre yapay zeka tarafından oluşturulan özetler “kesinlik oranı” Google'ın optimize ettiği ünlü snippet'lere eşdeğerdir. Bunlar, arama sonuçlarının en üstünde görünen ve bir web sayfasının içeriğinin bir kısmını temel alan kısa, özlü yanıtlardır.

Bu, yapay zekanın davranışlarından dolayı şaşırttığı, hayal kırıklığına uğrattığı ve endişelendirdiği ilk sefer değil. Geçen yıl ChatGPT ile aynı teknolojiye dayanan bir chatbot, muhataplarına çamaşır suyu bazlı bir kokteyl yapmalarını tavsiye etti. Ayrıca Amazon, mağazasında satılan ve yapay zeka yardımıyla yazılan bazı kitapların mantar tüketimi konusunda ölümcül tavsiyeler verdiğini keşfetti…

🔴
01net'ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp'tan takip edin.
Kaynak :

Google