OpenAI, yapay zeka botlarının kötüye kullanımını önlemek için "talimat hiyerarşisi" adlı yeni bir teknik geliştirdi.
Bu teknik, botların geliştirici tarafından verilen talimatlara öncelik vermesini sağlayarak, kullanıcıların botları yanıltmaya çalıştığı komutların etkisini azaltıyor.
OpenAI'nin en yeni modeli GPT-4, bu yeni güvenlik yöntemini kullanıyor.