Meta, Facebook ve Instagram gibi platformlarında gerçekleştirdiği ürün değerlendirme süreçlerini, büyük oranda yapay zeka sistemlerine bırakmayı hedefliyor. Bu değişiklik, ürün geliştirme sürecini hızlandırmayı amaçlarken, güvenlik açısından yeni riskleri de beraberinde getirebilir.
Şirketin planlarına göre, risk analizi süreçlerinin yaklaşık yüzde 90’ı otomatik hale getirilecek. İnsan denetiminin yerini alacak bu yapay zeka altyapısı, yeni ürün ve güncellemelerin güvenlik değerlendirmesini üstlenecek.
Yeni modelde ürün geliştiriciler, sistemin analiz etmesi için bir anket dolduruyor. Yapay zeka, bu verileri saniyeler içinde inceleyerek potansiyel riskleri tespit ediyor. Eğer sistem olumsuz bir durum saptarsa, sorun giderilmeden söz konusu özellik kullanıma sunulamıyor.
Ancak Meta’nın içinden bazı çalışanlar, yapay zekanın tüm durumlarda hassas kararlar veremeyebileceğini dile getiriyor. Özellikle çocuk ve genç kullanıcıların güvenliği, şiddet içerikleri ve yanlış bilgi gibi hassas başlıklarda sistemin sınırlı kalabileceği endişesi öne çıkıyor.
Meta ise bu kaygılara karşılık, yalnızca düşük riskli içeriklerde otomasyon kullandıklarını, daha karmaşık veya belirsiz durumlarda hâlâ insan uzmanlara başvurduklarını belirtiyor. Bu dönüşüm, şirketin yakın zamanda yayımladığı yeni bütünlük raporuyla aynı döneme denk geldi.
Rapora göre, içerik silme oranlarında bir azalma yaşanırken, şiddet ve zorbalık içeren içeriklerde hafif bir artış görülmüş. Meta’nın bu hamlesi, teknoloji devlerinin yapay zekaya daha fazla sorumluluk yüklediği yeni bir dönemin işareti olarak yorumlanıyor.
Buna da göz atın: Meta, AI asistan rekabetinde sahaya iniyor



