OpenAI'nin kurucu ortaklarından biri kendi yapay zekasını tasarlayacak

acidizing

New member
OpenAI'nin kurucu ortaklarından biri, gelişmiş ve güvenli yapay zekaya adanmış bir start-up olan Safe Superintelligence Inc'i kurdu. Firma, özenle seçilmiş küçük bir ekibi bir araya getirerek yeni yapay zeka geliştirmeyi umuyor.



OpenAI'nin kurucu ortaklarından Ilya Sutskever, yapay zekaya adanmış yeni bir şirketin kurulduğunu duyurdu. Vaftiz edilmiş Güvenli Süper Zeka Inc, start-up bir tasarımın tasarımına odaklanacak “Güvenli süper zeka”. Ilya Sutskever'in paylaştığı basın açıklamasına göre bu “Çağımızın en önemli teknik sorunu”.

Bu kavram, neredeyse tüm alanlarda insanın entelektüel yeteneklerini çok aşan, gelişmiş yapay zekayı ifade ediyor. insanlığın değerleriyle uyumlu. Firma, projeye özel bir laboratuvarın zaten kurulduğunu belirtiyor. Ayrıca grup bir araya geldi “Dünyanın en iyi mühendis ve araştırmacılarından oluşan küçük ve yetkin bir ekip”. Güvenli Süper İstihbaratın arkasında, Apple'ın eski yapay zeka başkanlarından biri olan Daniel Gross ve OpenAI ekibinin eski bir bilimsel lideri olan Daniel Levy'yi de görüyoruz.

Ayrıca okuyun: OpenAI, ChatGPT 5'in yakında yayınlanacağını doğruluyor ve yeni bir “yetenek düzeyi” vaat ediyor
Önce güvenlik


Adından da anlaşılacağı gibi şirket yapay zeka güvenliğine odaklanacak. Bu yaklaşımın bir parçası olarak Güvenli Süper İstihbarat şunları garanti eden bir iş modeline dayanacaktır: “Emniyet, güvenlik ve ilerlemenin tümü kısa vadeli ticari baskılardan yalıtılmıştır”. Somut olarak, “genel yönetim maliyetleri veya ürün döngüleri” bilim adamlarının dikkatini dağıtmayacaktır.

“Bu şirket, ilk ürününün güvenli süper istihbarat olması ve o zamana kadar başka hiçbir şey yapmayacağı açısından özeldir. Büyük, karmaşık bir ürün ortaya çıkarmanın ve rekabetçi bir keşmekeşin içinde sıkışıp kalmanın getirdiği dış baskılardan tamamen yalıtılmış olacak.”Ilya Sutskever Bloomberg ile yaptığı röportajda diyor.
Bu şekilde araştırmacılar finansal veya ekonomik kaygılar olmadan yapay zekayı geliştirecek ve “barış içinde gelişin”, diye ekliyor Sutskever. Dolaylı olarak, araştırmacının çizdiği gibi görünüyor OpenAI'nin izlediği yönün eleştirel bir portresi. Sam Altman'ın liderliğindeki start-up, kendisini en verimli yapay zekaya doğru çılgın bir yarışın içinde buldu ve yeni dil modellerini çoğaltıyor. OpenAI, ChatGPT 4 ve ChatGPT 4o'yu piyasaya sürdükten sonra şimdi daha da yetkin bir modelin gelişine hazırlanıyor. GPT-Sonraki veya GPT-5.

Güvenliğe yapılan vurguya rağmen Güvenli Süper Zeka, yapay zeka alanındaki araştırmalarda ön sıralarda kalmayı hedefliyor:

“Güvenlik ve becerilere, devrim niteliğindeki mühendislik ve bilimsel buluşlarla çözülmesi gereken teknik sorunlar olarak birlikte yaklaşıyoruz. Güvenliğimizin her zaman diğerlerinden önde olmasını sağlarken yeteneklerimizi mümkün olan en kısa sürede geliştirmeyi planlıyoruz.”.
OpenAI'deki anlaşmazlıklar


Bilginiz olsun, Ilya Sutskever, 2015 yılında Sam Altman ile birlikte OpenAI'nin kuruluşuna katıldı. Daha önce Google Brain araştırma ekibinde çalışan Rus araştırmacı, sonunda geçen ay OpenAI'den ayrıldı. Sam Altman'ın CEO olarak görevden alınması ve yeniden göreve getirilmesinin yanı sıra, birkaç ay önce grubun yönetim kurulundan zaten ayrılmıştı. Ilya Sutskever, Altman'ın ayrılmasına oy verenler arasındaydı.

Rus bilim insanı, CEO liderliğindeki OpenAI'nin yapay genel zeka yarışında gerekli önlemleri almayı ihmal ettiğine inanıyor. Ilya Sutskever, OpenAI'de tamamen yapay zekanın oluşturduğu riskleri tahmin etmeye adanmış bir ekip de oluşturmuştu. Superalignment adı verilen ekip, bilgisayar bilimcisinin ayrılmasından kısa bir süre sonra dağıldı. Üyeler başka görevlere atandı.

🔴
01net'ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp'tan takip edin.
Kaynak :

X