OpenAI Takımı, AI Risklerinden İnsanlığı Koruyan Birlik Olarak Feshedildi.

OpenAI Takımı, AI Risklerinden İnsanlığı Koruyan Birlik Olarak Feshedildi.

Geçen yıl, yapay zeka alanındaki öncü çalışmalarıyla tanınan OpenAI şirketi, Superalignment adında özel bir ekibi kurdu. Amacı, insanlığa tehdit oluşturabilecek potansiyel yapay zeka sistemlerini kontrol etmek ve yönetmekti. Ancak bir yıldan az bir süre sonra bu ekip varlığına son verdi.

OpenAI’nın resmi açıklamasına göre, Superalignment grubu, şirketin genel güvenlik hedeflerine ulaşmak için genel araştırma çabalarına daha derinlemesine entegre edildi. Ancak dağıtılan ekibin liderlerinden biri olan Jan Leike’in serisi tweet’ler, güvenlik grubu ile OpenAI’nın geri kalanı arasındaki iç çekişmeleri ortaya çıkardı.

Şirketi yeni terk eden Leike, Superalignment ekibinin araştırma yapmak için kaynak bulma konusunda zorluklar yaşadığını belirtti. Son yıllarda, OpenAI’da güvenlik kültürü ve süreçleri ikinci plana atıldı ve parlak ürünlere yer açıldı. Leike, aşırı akıllı makineler yaratmanın temelinde tehlikeli bir iş olduğunu vurgulayarak, OpenAI’nın insanlık karşısındaki büyük sorumluluğunu belirtti.

Leike’nin ayrılması, Superalignment ekibine aynı zamanda katılan ve şirketin bir diğer kurucu ortağı olan OpenAI’nın baş başkan yardımcısı Ilya Sutskever’den kısa bir süre sonra gerçekleşti. Son aylarda, Nisan ayında bilgi sızdırması iddiasıyla işten çıkarılan iki araştırmacı dahil olmak üzere diğer çalışanlar da ekip tarafından terk edildi.

Daha önce OpenAI, güçlü yapay zeka sistemlerinin kontrolü sorununu çözmek için önümüzdeki dört yıl boyunca hesaplama gücünün %20’sini ayırmayı taahhüt etmişti. Ancak Leike’ye göre, Superalignment ekibi bu kaynaklar için mücadele etmek zorunda kaldı ve güvenlikle ilgili önemli araştırmalar yapmak giderek daha zor hale geldi. Leike, son zamanlarda ekibinin “rüzgarın aleyhine esmeye” başladığını ve şirketin önceliklerine ilişkin görüş ayrılıkları nedeniyle yönetimle ilişkilerinde sınıra ulaşıldığını belirtti.

OpenAI, şimdi güvenlik sağlama çabalarının diğer kurucuları ve direktörleri tarafından yönetileceğini duyurdu. Bu kişilerin araştırmaları genellikle dil modelleri ve GPT-4 gibi öncü ürünlerin geliştirilmesine odaklanmaktadır. Yapay zeka güvenlik uzmanları firma bünyesinde kalacak ancak farklı departmanlara yayılacaklar.