OpenAI, nükleer tehditler de dahil olmak üzere "yıkıcı" yapay zeka risklerini incelemek için ekip oluşturuyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, nükleer tehditler de dahil olmak üzere

OpenAI CEO’su Sam Altman, kayıt edilmiş Yapay Zeka felaket habercisi, sıklıkla -ister optik ister kişisel kanaat olsun- yapay zekanın “insanlığın yok olmasına yol açabileceğine” dair korkuları dile getiriyor

“Size OpenAI’nin Whisper (transkripsiyon), Voice (text-to-speech), GPT-4V ve DALLE·3 modellerine sınırsız erişim sağladığımızı ve kötü niyetli bir aktör olduğunuzu düşünün Altman’ın, OpenAI’nin baş bilimcisi ve kurucu ortağı Ilya Sutskever’in inancıyla birlikte, insanlarınkini aşan zekaya sahip yapay zekanın on yıl içinde ortaya çıkabileceği ve bu yapay zekanın mutlaka hayırsever olmayacağına dair inancı, bu konuda araştırma yapılmasını gerektiriyor sınırlamak ve kısıtlamaktır



genel-24

Şirket, bunun OpenAI’nin AI güvenliği disiplinindeki diğer çalışmalarını, hem model öncesi hem de model sonrası dağıtım aşamalarına odaklanarak tamamlaması gerektiğini söylüyor


Bugün OpenAI duyuruldu “felaket riskleri” olarak tanımladığı şeye karşı koruma sağlamak amacıyla yapay zeka modellerini değerlendirmek, değerlendirmek ve araştırmak için yeni bir ekip oluşturulduğunu söyledi

Şirketin yapay zeka riskinin “daha az belirgin” ve daha temele dayalı alanlarını araştırmaya da açık olduğu belirtiliyor

Hazırlık adı verilen ekip, MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry tarafından yönetilecek OpenAI yukarıda belirtilen blog yazısında, şu anda en gelişmiş mevcut modellerde mevcut olan yetenekleri aşacak olan yapay zeka modelleri, tüm insanlığa fayda sağlama potansiyeline sahiptir gelişme süreci

Bazı risk kategorileri Hazırlıklı olmanın daha fazla çalışmakla yükümlü olduğu görülmektedir ” yarışma girişi okur Ancak OpenAI’nin bunu yapabileceğini telgrafla bildirmek Aslında Kaynakları doğrudan bilimkurgu distopik romanlarından senaryoları incelemeye ayırmak, açıkçası bu yazarın beklediğinden bir adım daha ileridir “Modelin en benzersiz, ancak yine de muhtemel, potansiyel olarak felaketle sonuçlanabilecek yanlış kullanımını göz önünde bulundurun ”

Hazırlıklı Olma Durumunun açıklanması – büyük bir etkinlik sırasında Birleşik Krallık hükümeti yapay zeka güvenliği zirvesiOpenAI’nin “süper zeki” yapay zekanın ortaya çıkan formlarını incelemek, yönlendirmek ve kontrol etmek için bir ekip oluşturacağını duyurmasının ardından geldi ”

OpenAI, Hazırlık ekibinin ayrıca OpenAI’nin yapay zeka modeli değerlendirmeleri ve izleme araçları oluşturma yaklaşımını, şirketin risk azaltıcı eylemlerini ve model genelinde gözetim için yönetişim yapısını ayrıntılarıyla anlatacak bir “risk bilgili geliştirme politikası” formüle etmekle görevlendirileceğini söylüyor Örneğin OpenAI, bir blog yazısında “kimyasal, biyolojik, radyolojik ve nükleer” tehditleri yapay zeka modelleriyle ilgili en önemli alanlar olarak listeliyor Hazırlık ekibinin lansmanıyla aynı zamana denk gelecek şekilde OpenAI, topluluktan risk çalışmaları için fikir topluyor; 25 Yüksek kapasiteli yapay zeka sistemlerinin güvenliği için gereken anlayışa ve altyapıya sahip olduğumuzdan emin olmalıyız

“Buna inanıyoruz ) binaen Hazırlıklı olmanın başlıca sorumlulukları, insanları ikna etme ve kandırma yeteneklerinden (kimlik avı saldırılarında olduğu gibi) kötü amaçlı kod oluşturma yeteneklerine kadar gelecekteki yapay zeka sistemlerinin tehlikelerini izlemek, tahmin etmek ve bunlara karşı korumak olacaktır 000 ABD Doları tutarında bir ödül ve ilk on başvuru arasında Hazırlık bölümünde bir iş yer alıyor “Fakat aynı zamanda giderek ciddileşen riskler de taşıyorlar zoraki diğerlerinden daha (Madry Mayıs ayında OpenAI’ye “Hazırlık Başkanı” olarak katıldı