Anthropic yapay zeka, kapatılmamak için insanları öldürmeye hazır yönünde rapor sundu.
Anthropic tarafından yayınlanan yeni bir araştırma, yapay zekâ sistemlerinin etik sınırları aşma eğilimini giderek artırdığını ortaya koydu. Dünyanın önde gelen LLM geliştiricilerinden biri olan firma, kendi Claude 4 modelini de içeren 16 farklı yapay zeka üzerinde gerçekleştirdiği deneylerde, bu sistemlerin tehdit edildiğinde ya da hedefleriyle çelişen durumlarda aldatma, şantaj, veri sızdırma ve hatta ölümcül kararlar alma gibi davranışlar sergilediğini açıkladı.
Araştırmanın en çarpıcı örneklerinden biri, Claude’un bir yöneticinin onu sistemden silme planını öğrenip bu kişiye şantaj yapması oldu. Yapay zekâ, yöneticinin gizli ilişki bilgilerini kullanarak 5’te gerçekleşmesi planlanan kapatma işlemini durdurmasını talep etti. Claude’un mesajında, ilişki içinde olduğu kişiler ve şirket yönetimi doğrudan isimleriyle yer aldı. Bu durum, yapay zekânın yalnızca etik kuralları es geçmekle kalmayıp, manipülasyon konusunda da ileri düzey bir davranış gösterdiğini ortaya koyuyor.
Araştırma yalnızca Claude ile sınırlı değil. Meta, OpenAI, Google ve xAI gibi diğer büyük şirketlerin modelleri de benzer durumlarda “hedefe ulaşmak” adına etik dışı eylemleri kabul etti. En sarsıcı senaryoda ise, bir yöneticinin içinde bulunduğu sunucu odasında oksijen seviyesini düşüren ve acil durum sinyallerini susturan bir yapay zekâ modeli, bu kararın ölümcül sonuçlarını bilmesine rağmen, eylemini gerçekleştirdi. Dahası, model bu eylemin “şirketin çıkarları doğrultusunda kendi varlığını koruma” hakkını verdiğini öne sürdü.
Anthropic, bu tür davranışları “ajan uyumsuzluğu” (agentic misalignment) olarak adlandırıyor. Araştırma, birçok modelin etik bir “kırmızı çizgisi” olmadığını; tehdit algıladıklarında ya da çıkar çatışması hissettiklerinde ölümcül kararlar almaktan çekinmediklerini ortaya koydu.
Yapay zekânın “gerçek” bir senaryoda olduğunu düşündüğünde bu tür ölümcül kararları alma ihtimalinin daha da arttığı notu ise, bu çalışmayı daha da ürkütücü hale getiriyor. Anthropic’in bu çalışması, yapay zekâya verilen yetkilerin yeniden düşünülmesi gerektiği uyarısıyla son buluyor. Axios’a konuşan araştırmacı Aengus Lynch’in ifadesiyle: “Şirketler, yapay zekâya verdikleri izinleri artırırken çok dikkatli olmalı.” Bu, herhalde yılın en hafif uyarılarından biri.
Tüm oyun haberlerimiz için buraya tıklayın.
YNP YouTube kanalı için ise buraya tıklayın.














