Openai, AI'nın yeni virüslerin oluşturulmasını kolaylaştıracağından korkuyor

acidizing

New member
Openai artan bir yapay zeka riskine karşı uyarıyor. Başlangıçlara göre, bir sonraki ChatGPT sürümleri herkesin en ufak bir eğitim almadan organik silahlar tasarlamasına yardımcı olabilir. Kötü ellerde, AI büyük bir biyolojik tehdidi temsil edecekti … bu yüzden Openai bunun güçlü önlemler aldığını duyurdu.



CHATGPT'nin kökeni olan Openai, alarmı çalıyor. 18 Haziran 2025 Çarşamba günü yayınlanan bir blog yazısında, Amerikan Şirketi gelecekteki AI modellerinin İnternet kullanıcılarına yardımcı olabileceğini açıklıyor Biyolojik Silahlar Tasarlayın. ENtre insanlar Kötü bilgilendirilmiş veya deneyimsiz olan yapay zeka, kontrolsüz bakteriyolojik silahların ortaya çıkma riskini artırabilir.

Geçen Nisan ayında Openai, AI'nın askeri kullanım için patojen konularında ortaya koyduğu risklerden daha önce bahsetmişti. Suistimallerden kaçınmak için, Sam Altman girişim, chatgpt'in altında yatan modelleri önlemek için önlemler almıştı. tavsiye vermek Biyolojik tehditlerle ilgili. Openai, iki akıl yürütme modeli olan O3 ve O4-mini koduna güvence altına alındı.

Ayrıca okuyun: ChatGPT ile Çevrimiçi Arama İyileştirir – Openai Google ile rekabet etmek için daha iyi cevaplar vaat ediyor
Openai Redoute “Acemilerin Yüksekliği”


Openai'ye göre, organik ajanlar alanında AI modellerinin ortaya koyduğu tehlike ivme kazanmak üzeredir. Tarafından sorgulandı AksilerOpenai güvenlik sistemi başkanı Johannes Heidecke, firmanın bunu beklediğini gösterir. “Bazı halefler” O3 modelinin kullanıcıya biyolojik bir silah oluşturulmasında rehberlik edebiliyor. Başlangıç, başlıklı bir fenomenden korkar “Acemilerin Yüksekliği”. Açıkçası, AI, riskleri anlamadan potansiyel olarak tehlikeli maddeler yaratma olasılığı verebilir.

Raporunda yapay zeka devi, AI modellerinin testlerini güçlendirin geliştirme altında. Openai'nin risk azaltma planı, en ufak bir konuşlandırmadan önce her modeli ve potansiyel istismarı değerlendirmeyi planlıyor. Değerlendirmelerin bir parçası olarak, firma tanınmış uzmanlara ve kamu yetkililerine yönelmeyi taahhüt eder. Süreç, iç ve dış organların iki denetimin onaylanmasını gerektirir. İki organ, bir AI modeli yayınlanmadan önce onaylarını vermelidir.

Buna ek olarak, virüslerin oluşturulmasında tüm yardım taleplerini engellemek için yeni güvenlik önlemleri oluşturulmuştur. Potansiyel olarak zararlı bir talep tespit edildiğinde, Openai AI'nın tepkisini askıya alır. Durum daha sonra bir algoritma, sonra bir insan tarafından değerlendirilecektir.

Johannes Heidecke'nin açıkladığı gibi, “Daha önce var olmayan biyolojik tehditlerin yeni ve tamamen bilinmeyen bir yarattığı dünyada değiliz”. Bu aşamada, modeller her şeyden önce “Uzmanların zaten çok iyi bildiği şeylerin çoğaltılması” eğitimsiz bireyler tarafından.

Ayrıca okuyun: Kendinize Kibar Göster ve Teşekkürler Chatgpt Openai'de on milyonlarca dolara mal olacak
Dengeleyici bir egzersiz


Her zaman olduğu gibi, Openai bulmaya çalışır Doğru denge Önlem ve yenilik arasında. Başlangıç, biyolojik silahların tasarımına yol açabilecek AI işlevlerinin, büyük tıbbi atılımlara yol açması muhtemel olduğunu hatırlıyor. Sonraki AI modelleri “Yeni ilaçların keşfine izin vermek, daha etkili aşılar tasarlamak, kalıcı yakıtlar için enzimler oluşturmak ve nadir hastalıklara karşı yenilikçi tedaviler geliştirmek”Openai'yi gösterir.

🔴
Herhangi bir 01net haberini kaçırmamak için bizi Google News ve WhatsApp'ta takip edin.
Kaynak :

Openai