PauseAI Teklifi: Yapay Zekayı Duraklat!

İstem: Translate the following proposal into Turkish! (PauseAI Proposal)

Bkz “İvmecilik ve Frencilik: Yeni Politik Cepheleşme ve Yapay Zeka Denetimi” ChatGPT, “Plüton’un Kova Burcuna Geçişi Tartışmalara Yol Açıyor: Bilgi Çağında İvmecilik ve Frencilik” ChatGPT, DeepL, “Uranüs-Jüpiter Kavuşumu ve İnsan-Makine Etkileşimi: İvmecilik ve Frencilik Perspektifleri” ChatGPT, “Köklerini Muhafaza Eden Komünist: Sağ-Sol / Frenci-İvmeci”

GPT-4’ten daha güçlü AI sistemlerinin güvenli bir şekilde nasıl inşa edileceğini ve demokratik kontrol altında nasıl tutulacağını öğrenene kadar eğitimlerini durdurmayı öneriyoruz.

Bireysel ülkeler bu önlemi hemen uygulayabilir ve uygulamalıdır. Özellikle ABD (veya spesifik olarak Kaliforniya) bir Duraklama uygulamalıdır, çünkü neredeyse tüm önde gelen AI şirketlerine ev sahipliği yapmaktadır. Birçok bilim insanı ve endüstri lideri bir Duraklamanın gerekli olduğu konusunda hemfikir ve (ABD) kamuoyu da güçlü bir şekilde bir duraklamayı destekliyor (%64%69).

Ancak, diğer ülkeler veya şirketler aynı şeyi yapmazsa, ülkelerin veya şirketlerin rekabet avantajını riske atarak uzun süre AI eğitimlerini durdurmalarını bekleyemeyiz. Bu yüzden küresel bir Duraklamaya ihtiyacımız var.

Küresel Bir Duraklama Uygulamak

Uluslararası bir anlaşma genellikle bir zirve aracılığıyla kurulur; burada ülkelerin liderleri bir araya gelip konuyu tartışır ve bir karar verirler. Birleşik Krallık, 2023 sonbaharında bir AI güvenlik zirvesine ev sahipliği yaparak bu konuda öncülük etti. Ve iki zirve daha duyuruldu. Zirveler hakkında daha fazla bilgi.

Zirvenin birincil hedefi bir antlaşma olmalıdır. Bu antlaşma, AI risklerinden korunmamızı sağlayacak politika önlemlerini belirtmelidir. Bu antlaşma, tüm BM üye ülkeleri tarafından imzalanmalıdır.

  • IAEA benzeri uluslararası bir AI güvenlik ajansı kurun. Bu ajans:
    > Dağıtımlar için onay vermekten sorumlu olacaktır. Bu, kırmızı ekip çalışmaları / model değerlendirmelerini içerecektir.
    > Belli bir boyutun üzerindeki (örneğin 1 milyar parametre) yeni AI model eğitimleri için onay verecektir.
    > AI güvenliği araştırmalarının ilerlemesini tartışmak için periyodik toplantılar yapacaktır.
  • GPT-4’ten daha güçlü genel AI sistemlerinin eğitilmesine sadece güvenlikleri garanti edilebilirse izin verin.
    > GPT-4’ten daha güçlü derken, ya 10^12 parametreden daha büyük, ya 10^25 FLOP’tan daha fazla eğitim kullanan ya da GPT-4’ü aşması beklenen yeteneklere sahip tüm AI modellerini kastediyoruz.
    > Bunun, kanser teşhisi için kullanılan görüntü tanıma gibi dar AI sistemlerini hedeflemediğini unutmayın.
    > Eğitim sırasında gözetim gerektirir.
    > Güvenlik, güçlü bilimsel mutabakat ve uyum probleminin çözüldüğüne dair kanıt varsa garanti edilebilir. Şu anda bu durum böyle değil, bu yüzden şu anda bu tür sistemlerin eğitilmesine izin vermemeliyiz.
    > AI uyum probleminin asla çözülememesi mümkün olabilir – çözülemez olabilir. Bu durumda, bu tür sistemlerin eğitimine asla izin vermemeliyiz.
    > Kontrol edilebilir, güvenli AI inşa edebilirsek bile, bu teknolojiyi güçlü demokratik kontrol ile inşa edin ve dağıtın. Bir süper zeka, tek bir şirket veya ülke tarafından kontrol edilemeyecek kadar güçlüdür.
    > AI eğitimi için kullanılabilecek GPU’lar ve diğer donanımların satışını izleyin.
  • Tehlikeli yetenekler bulunmadığında modellerin dağıtımına izin verin.
    > Tehlikeli yeteneklerin belirlenip belirlenmediğini değerlendirmek için standartlara ve bağımsız kırmızı ekip çalışmalarına ihtiyacımız olacak.
    > AI yetenekleri arttıkça tehlikeli yeteneklerin listesi değişebilir.
    > Modellerin değerlendirilmesine tamamen güvenmenin yeterli olmadığını unutmayın.

Bir duraklamayı düzgün bir şekilde uygulamak, düzgün yapılmazsa ters tepebilir. Bu risklerin nasıl azaltılabileceği hakkında daha fazla bilgi edinin.

Etkili Bir Şekilde Yavaşlatan Diğer Önlemler

  • Telif hakkıyla korunan materyaller üzerinde AI sistemlerinin eğitimini yasaklayın. Bu, telif hakkı sorunlarını çözmeye, artan eşitsizliği yavaşlatmaya ve süper zekaya doğru ilerlemeyi yavaşlatmaya yardımcı olur.
  • AI sistemlerini kullanarak işlenen suçlardan model oluşturucuları sorumlu tutun. Bu, model oluşturucularına modellerinin güvenli olmasını sağlamak için daha fazla teşvik verir.

Uzun Vadeli Politika

Yazım sırasında, bir GPT-3 boyutunda modelin eğitimi milyonlarca dolara mal oluyor. Bu, bu tür modellerin eğitilmesini çok zor hale getiriyor ve bu da GPU takibi kullanarak eğitim kontrolünü daha kolay hale getiriyor. Ancak, model eğitiminin maliyeti donanım iyileştirmeleri ve yeni eğitim algoritmaları sayesinde üstel olarak düşüyor.

Potansiyel süper zeki AI modellerinin birkaç bin dolara veya daha az bir maliyetle, belki de tüketici donanımı üzerinde eğitilebileceği bir noktaya geleceğiz. Buna hazırlıklı olmalıyız. Şu politikaları düşünmeliyiz:

  • Eğitim algoritmalarının / çalışma zamanı iyileştirmelerinin yayınlanmasını sınırlayın. Bazen, eğitimi çok daha verimli hale getiren yeni bir algoritma yayımlanır. Örneğin, Transformer mimarisi, son AI ilerlemelerinin neredeyse tamamını mümkün kıldı. Bu tür yetenek sıçramaları her an olabilir ve bu algoritmaların yayınlanmasını sınırlamayı düşünmeliyiz, ani bir yetenek sıçraması riskini en aza indirmek için. Benzer şekilde, bazı çalışma zamanı yenilikleri, mevcut modellerle neler yapılabileceğini kökten değiştirebilir. Bu ilerlemeler de düzenlenebilir.
  • Hesaplama kaynaklarının yetenek ilerlemelerini sınırlayın. Eğer bir süper zeka eğitimi tüketici donanımı üzerinde mümkün hale gelirse, bu ciddi bir sorun olur. Donanımın yetenek ilerlemelerini sınırlamayı düşünmeliyiz.

Buna Yardımcı Olmak İçin

Harekete geçmek için iş birliği yapın veya kendi başınıza harekete geçin!

Redaksiyon: Işık Barış Fidaner

2 Yorum

Filed under Eviri

2 responses to “PauseAI Teklifi: Yapay Zekayı Duraklat!

  1. Geri bildirim: Trisolaris — derleme | YERSİZ ŞEYLER

  2. Geri bildirim: İtikat — derleme | YERSİZ ŞEYLER