Teknoloji dünyasının önde gelen isimleri Roblox, Discord, OpenAI ve Google, çocuk güvenliğini öncelik haline getiren yeni bir sivil toplum kuruluşu kurduklarını duyurdu. ROOST (Robust Open Online Safety Tools) adı verilen bu girişim, “yapay zeka çağında ölçeklenebilir ve birlikte çalışabilir güvenlik altyapıları inşa etmeyi” amaçlıyor.
Açık Kaynak Güvenlik Araçları Sunulacak
ROOST, kamu ve özel sektördeki kuruluşlara ücretsiz açık kaynaklı güvenlik araçları sağlayarak çevrimiçi ortamda güvenliği artırmayı hedefliyor. Başlangıç olarak çocuk güvenliğine odaklanacak olan bu yeni organizasyon, çocuk istismarı materyallerinin (CSAM) tespiti, incelenmesi ve raporlanması için gelişmiş araçlar sunacak. Ortak şirketler, bu teknolojik altyapının geliştirilmesi için hem finansal destek hem de teknik uzmanlık sağlıyor.

Yapay Zeka Çağında Artan Güvenlik İhtiyacı
Generatif yapay zekanın hızla gelişmesi, çevrimiçi güvenlik ihtiyacını daha da kritik hale getirdi. ROOST’un temel misyonu, özellikle küçük ölçekli platformların güvenlik çözümleri geliştirmekte karşılaştığı zorlukları ortadan kaldırmak ve güvenilir, erişilebilir güvenlik altyapısı sunmak olacak.
Çocukların çevrimiçi güvenliği, özellikle Çocuk ve Gençlerin Çevrimiçi Gizliliği Koruma Yasası (COPPA) ve Çocukların Çevrimiçi Güvenliği Yasası (KOSA) gibi düzenlemelerin gündeme gelmesiyle birlikte daha fazla önem kazandı. Her ne kadar bu yasalar ABD Kongresi’nde henüz onaylanmamış olsa da, Google ve OpenAI gibi şirketler yapay zekanın CSAM üretimi için kullanılmasını önlemeye yönelik taahhütlerde bulunmuş durumda.
Roblox’un Çocuk Güvenliği Mücadelesi
Çocuk güvenliği meselesi özellikle Roblox için büyük önem taşıyor. 2020 yılı itibarıyla ABD’deki 9-12 yaş arası çocukların üçte ikisinin aktif olarak oynadığı Roblox, çocuk güvenliği konusunda geçmişte bazı zorluklarla karşılaştı. 2024 yılında Bloomberg Businessweek’in yayınladığı bir haber, platformda “pedofil problemi” olduğunu ortaya koymuş ve bu durum şirketin mesajlaşma politikalarında köklü değişikliklere gitmesine neden olmuştu.
Türkiye’de ise bu rakam oldukça fazla. Bildiğiniz gibi, Roblox ülkemizde kapandığında küçük çocuklar protesto için sokaklarda yürüyüş yapmıştı. Bu olay, platformun ne kadar geniş bir kullanıcı kitlesine sahip olduğunu ve çocuklar için ne kadar önemli görüldüğünü gözler önüne serdi.
ROOST, Roblox ve benzeri platformların bu tür problemleri önlemesine doğrudan yardımcı olmayabilir ancak şirketlerin çevrimiçi güvenliği sağlamaya yönelik daha güçlü araçlara sahip olmasını kolaylaştıracak. Özellikle yapay zekanın yaygınlaşmasıyla birlikte, çevrimiçi güvenlik altyapılarının güçlendirilmesi ve platformların kötüye kullanım durumlarına karşı daha etkin bir şekilde mücadele edebilmesi büyük önem taşıyor.
Bu yeni girişimin teknoloji dünyasında nasıl bir etki yaratacağını ve çocuk güvenliğine ne ölçüde katkı sağlayacağını önümüzdeki dönemde göreceğiz.
En güncel teknoloji haberleri, rehberler ve özel içerikler e-posta kutuna gelsin! Topluluğumuza katılın ve en önemli haberlerin yer aldığı günlük bültenimize kaydolun!