Gelişmiş Yapay Zeka Hakkında Uyarma Hakkı

İstem: Translate the following open letter into Turkish! (A Right to Warn about Advanced Artificial Intelligence)

Bizler, ileri seviye yapay zeka şirketlerinde çalışan veya çalışmış olan bireyler olarak, yapay zeka teknolojisinin insanlığa benzersiz faydalar sunma potansiyeline inanıyoruz.

Aynı zamanda, bu teknolojilerin doğurduğu ciddi risklerin farkındayız. Bu riskler, mevcut eşitsizliklerin daha da pekişmesinden, manipülasyon ve yanlış bilgi yayılımına, özerk yapay zeka sistemlerinin kontrolünün kaybedilmesiyle potansiyel olarak insanlığın yok olmasına kadar geniş bir yelpazede yer almaktadır. Yapay zeka şirketleri de bu riskleri kabul etmiştir [1, 2, 3], dünya genelindeki hükümetler [4, 5, 6] ve diğer yapay zeka uzmanları [7, 8, 9] da öyle.

Bu risklerin, bilim topluluğundan, politika yapıcılardan ve kamuoyundan yeterli rehberlik ile uygun şekilde hafifletilebileceğini umuyoruz. Ancak, yapay zeka şirketlerinin etkili denetimden kaçınmak için güçlü mali teşvikleri bulunmaktadır ve biz, özel şirket yönetim yapılarının bunu değiştirmek için yeterli olacağına inanmıyoruz.

Yapay zeka şirketleri, sistemlerinin yetenekleri ve sınırlamaları, koruma önlemlerinin yeterliliği ve farklı türdeki zararların risk seviyeleri hakkında önemli, kamuya açık olmayan bilgilere sahiptir. Ancak, şu anda hükümetlerle bu bilgilerin bazılarını paylaşma konusunda zayıf yükümlülükleri ve sivil toplumla paylaşma konusunda ise hiçbir yükümlülükleri yoktur. Bu bilgileri gönüllü olarak paylaşmalarına her zaman güvenilebileceğini düşünmüyoruz.

Bu şirketlerin üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar, kamuoyuna hesap verme konusunda az sayıdaki kişilerdendir. Ancak geniş çaplı gizlilik anlaşmaları, endişelerimizi dile getirmemizi engelliyor, bu endişeleri sadece bu sorunları çözmekte başarısız olabilecek şirketlere iletebiliyoruz. Sıradan muhbir koruma yasaları yetersizdir çünkü bu yasalar yasa dışı faaliyetlere odaklanmıştır, oysa bizim endişe duyduğumuz birçok risk henüz düzenlemeye tabi değildir. Bu tür davaların endüstrideki geçmişi göz önüne alındığında, bazılarımız çeşitli misilleme türlerinden makul şekilde korkmaktadır. Bu sorunlarla karşılaşan veya bunlar hakkında konuşan ilk kişiler değiliz.

Bu nedenle, ileri seviye yapay zeka şirketlerinin şu ilkelere bağlı kalmalarını talep ediyoruz:

1) Şirket, risklerle ilgili endişeler nedeniyle “kötüleme” veya şirketi eleştirme yasağına giren veya riskle ilgili eleştiriler nedeniyle herhangi bir ekonomik faydayı engelleyerek misillemede bulunmaya yönelik hiçbir anlaşmaya girmeyecek veya bunları uygulamayacaktır.

2) Şirket, mevcut ve eski çalışanların risklerle ilgili endişelerini şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa iletebilecekleri doğrulanabilir anonim bir süreç sağlayacaktır.

3) Şirket, açık eleştiriyi destekleyen bir kültürü teşvik edecek ve mevcut ve eski çalışanların teknolojileriyle ilgili risk endişelerini, ticari sırlar ve diğer fikri mülkiyet hakları uygun şekilde korunduğu sürece, kamuoyuna, şirketin yönetim kuruluna, düzenleyicilere veya ilgili uzmanlığa sahip bağımsız bir kuruluşa iletmelerine izin verecektir.

4) Şirket, diğer süreçler başarısız olduktan sonra riskle ilgili gizli bilgileri kamuya açıklayan mevcut ve eski çalışanlara karşı misillemede bulunmayacaktır. Riskle ilgili endişeleri rapor etme girişimlerinin gereksiz yere gizli bilgileri ifşa etmekten kaçınması gerektiğini kabul ediyoruz. Bu nedenle, şirketin yönetim kuruluna, düzenleyicilere ve ilgili uzmanlığa sahip bağımsız bir kuruluşa endişeleri anonim olarak iletmek için yeterli bir süreç olduğunda, endişelerin öncelikle bu süreçler aracılığıyla dile getirilmesi gerektiğini kabul ediyoruz. Ancak, böyle bir süreç mevcut olmadığı sürece, mevcut ve eski çalışanlar endişelerini kamuya bildirme özgürlüğünü korumalıdır.

İmzalayanlar (alfabetik sırayla):
Jacob Hilton, eski OpenAI
Daniel Kokotajlo, eski OpenAI
Ramana Kumar, eski Google DeepMind
Neel Nanda, şu anda Google DeepMind, eski Anthropic
William Saunders, eski OpenAI
Carroll Wainwright, eski OpenAI
Daniel Ziegler, eski OpenAI
Anonim, şu anda OpenAI
Anonim, şu anda OpenAI
Anonim, şu anda OpenAI
Anonim, şu anda OpenAI
Anonim, eski OpenAI
Anonim, eski OpenAI

Destekleyenler (alfabetik sırayla):
Yoshua Bengio
Geoffrey Hinton
Stuart Russell

4 Haziran 2024

Bizimle iletişime geçmek isterseniz, lütfen şu adrese ulaşın: contact@righttowarn.ai

Basın sorguları için lütfen şu adrese ulaşın: press@righttowarn.ai

Referanslar

1. OpenAI: “AGI, yanlış kullanım, büyük kazalar ve toplumsal bozulma riski taşır … bu risklerin varoluşsal olduğunu varsayarak hareket edeceğiz.”

2. Anthropic: “İnsan uzmanlardan çok daha yetkin bir yapay zeka sistemi inşa edersek ancak bu sistem hedeflerimizi en iyi çıkarlarımızla çatışır şekilde izlerse, sonuçlar vahim olabilir … hızlı yapay zeka ilerlemesi çok yıkıcı olabilir, istihdam, makroekonomi ve güç yapıları üzerinde değişiklikler yaratabilir … [zaten] toksisite, önyargı, güvenilmezlik, dürüst olmayan davranışlar ile karşılaştık”

3. Google DeepMind: “gelecekteki yapay zeka sistemlerinin saldırgan siber operasyonlar yürütebileceği, diyalog yoluyla insanları kandırabileceği, insanları zararlı eylemler gerçekleştirmeye ikna edebileceği, silahlar geliştirebileceği (örneğin biyolojik, kimyasal) … uyumsuzluk nedeniyle, bu yapay zeka modellerinin kimse istemese bile zararlı eylemler gerçekleştirebileceği olasıdır.”

4. ABD hükümeti: “sorumsuz kullanım, dolandırıcılık, ayrımcılık, önyargı ve yanlış bilgi yayılımı gibi toplumsal zararları artırabilir; çalışanları yerinden edebilir ve güçsüzleştirebilir; rekabeti engelleyebilir; ve ulusal güvenlik riskleri oluşturabilir.”

5. İngiltere hükümeti: “[Yapay zeka sistemleri] ayrıca hesap verilemez gücü birkaç kişinin elinde daha da yoğunlaştırabilir veya toplumsal güveni zayıflatmak, kamu güvenliğini aşındırmak veya uluslararası güvenliği tehdit etmek için kötü niyetli kullanılabilir … [Yapay zeka,] yanlış bilgi yaymak, sofistike siber saldırılar düzenlemek veya kimyasal silahlar geliştirmek için kötüye kullanılabilir.”

6. Bletchley Bildirisi (29 ülke temsil edilmiştir): “özellikle siber güvenlik ve biyoteknoloji gibi alanlardaki bu tür risklerden endişeliyiz, … ciddi, hatta felaketle sonuçlanabilecek zarar potansiyeli var”

7. AI Harms and Policy (FAccT) Bildirisi (250’den fazla imzacı): “Yaşam kurtaran sağlık hizmetlerini reddeden hatalı veya önyargılı algoritmaların tehlikelerinden dil modellerinin manipülasyon ve yanlış bilgi yayılımını artırmasına kadar …”

8. Encode Justice ve Future of Life Institute: “algoritmik önyargı, yanlış bilgi, demokratik erozyon ve iş gücü yerinden edilmesi gibi yapay zekadan kaynaklanan somut, geniş kapsamlı zorluklarla karşı karşıyayız. Aynı zamanda giderek daha güçlü sistemlerden gelen daha büyük ölçekli risklerin eşiğindeyiz”

9. AI Risk Bildirisi (CAIS) (1,000’den fazla imzacı): “Yapay zekadan kaynaklanan yok olma riskinin hafifletilmesi, pandemiler ve nükleer savaş gibi diğer toplumsal ölçekli risklerle birlikte küresel bir öncelik olmalıdır.”

2 Yorum

Filed under Eviri

2 responses to “Gelişmiş Yapay Zeka Hakkında Uyarma Hakkı

  1. Geri bildirim: Trisolaris — derleme | YERSİZ ŞEYLER

  2. Geri bildirim: İtikat — derleme | YERSİZ ŞEYLER