Çocuklar için dijital manzara, algoritmaların artık insan denetimi olmadan akışları düzenlediği, sentetik videolardan oluşan bir sel ile yeniden şekilleniyor. Araştırmalar, CoComelon gibi popüler şovlardan sonra önerilen YouTube Shorts'ların %40'ından fazlasının, genç ve etkilenmeye açık zihinler için çarpık bir ortam yaratan yapay zeka üretimi görsellerle dolu olduğunu ortaya koyuyor.
Bu artış sadece tuhaf animasyonlarla ilgili değil; düşük kaliteli, seri üretim içeriğin, genellikle eğitim materyali olarak gizlenerek çocukların akışlarını doldurduğu sistematik bir sorun. Senaryoları, görselleri ve anlatımı dakikalar içinde oluşturan araçlarla bu tür videolar yapmanın kolaylığı, uzmanların "yapay zeka çöpü" olarak adlandırdığı, yapay ile gerçek içeriği ayırt etmekte zorlanan savunmasız izleyicileri hedef alan bir patlamaya yol açtı.
Endişe verici bir şekilde, birçok yapay zeka videosu tehlikeli davranışları öğretme çizgisini aşıyor. Çocukların trafikte oynadığını gösteren kliplerden, bebeklerin bütün üzüm veya zehirli çiğ mürver gibi boğulma tehlikesi oluşturan şeyleri yediğini tasvir edenlere kadar içerik zararsızdan tehlikeliye kayıyor. Sağlık uzmanları, bu hataların önemsiz olmadığı konusunda uyarıyor; küçük çocuklar tekrara güvendiği için, güvenilir öğrenme kaynaklarını taklit eden parlak, ilgi çekici formatlarda sunulduğunda yanlış bilgi akılda kalabilir.
Gelişimsel davranışsal pediatrist Dr. Jenny Radesky, bu videoların gerçek eğitim değeri sunmadan dikkat çeken "anlamsızlığına" dikkat çekiyor. Sunum ile gerçeklik arasındaki bu çatışma, bilişsel uyumsuzluğu besleyerek bir çocuğun güvenlik ve normları anlayışını potansiyel olarak zedeleyebilir.
YouTube'un öneri motoru bu çarpıtmada kritik bir rol oynuyor. The New York Times analizi, algoritmanın özellikle Bluey veya Ms. Rachel gibi yerleşik içerikleri izledikten sonra çocuklara sistematik olarak yapay zeka yapımı videolar sunduğunu buldu. Bu rastgele değil; platformun tasarımı etkileşimi önceliklendiriyor ve yapay zeka üretimi içerik, tekrarlayan ve akılda kalıcı unsurlarıyla bu modele sorunsuz uyuyor ve erişimini büyütüyor.
YouTube Shorts'a odaklanma sorunu şiddetlendiriyor. Kısa formatlı videolar, kısalıkları ve basitlikleri nedeniyle yapay zeka üretimi için idealdir, bu da içerik üreticilerinin hızla video üretmesine olanak tanır. Çocuklar bu akışlarda gezinirken, algoritmanın kalite veya doğruluktan ziyade etkileşim modellerine dayanarak ilgili bulduğu sentetik kliplerle bombardımana tutulur, bu da bir çarpıtma geri besleme döngüsü yaratır.
Bu içerik neden var? Temel itici güç büyük ölçüde parasal. İçerik üreticileri, ebeveynlerin çevrimiçi aradığı yüksek talep gören konuları hedefleyerek, dakikalar içinde video oluşturmak için yapay zeka araçlarını kullanıyor. Bir örnekte gösterildiği gibi, tek bir komut, parlak animasyonlar ve senkronize şarkı sözleriyle YouTube için optimize edilmiş tam bir çocuk şarkısı videosu oluşturabilir. Bu yaklaşımı kullanan kanallar reklam geliri elde ediyor, bazılarının milyonlar kazandığı bildiriliyor, bu da etik denetim olmadan seri üretimi teşvik ediyor.
Pakistan'dan bir içerik üreticisi Syeda Jaria Hassan, yapay zeka içerik üretimini tam zamanlı bir işe dönüştürerek bu ekonominin ne kadar erişilebilir hale geldiğini gösteriyor. Birçok hesabın anonimliği sorunu daha da karmaşık hale getiriyor, çünkü içeriğin doğruluğu veya güvenliği için çok az hesap verilebilirlik var, bu da çocukların akışlarını kar odaklı oyun alanlarına dönüştürüyor.
Çocuk gelişimi uzmanları acil endişelerini dile getiriyor. Susam Sokağı'nın deneyimli ismi Carla Engelbrecht bu içeriği "tamamen tehlikeli" olarak nitelendiriyor ve bunu "endüstriyel ölçekte yürümeye başlayan çocuk yapay zeka yanlış bilgisi" olarak tanımlıyor. Risk şu ki, gerçek ile hayali ayırt etmeyi öğrenmekte olan küçük çocuklar, bu çarpık mesajları içselleştirerek dünya görüşlerini ve gelişimlerini etkileyebilir.
Chicago Üniversitesi'nden profesör Donna Suskind, sorunun otomasyon araçlarının minimum denetime izin verdiği "yapay zeka çöpü" ile körüklendiğini belirtiyor. Bu hızlı üretim döngüsü, zararlı mesajlaşmanın tespit edilmeden önce yaygınlaşabileceği anlamına geliyor, bu da çocukların bilişsel ve fiziksel güvenliğini geleneksel medyanın nadiren yaptığı şekillerde riske atıyor.
Buna yanıt olarak YouTube, Partner Programı'ndan kanalları askıya alma ve zararlı olarak işaretlenen videoları kaldırma gibi eylemler aldı. Ancak, önemli politika boşlukları devam ediyor. Platform gerçekçi sentetik içerik için açıklama gerektiriyor ancak çocuk içeriğine hakim olan animasyonlu yapay zeka videoları için değil. Bu boşluk, çocuklara ulaşan materyalin çoğunun etiketlenmediği anlamına geliyor, bu da ebeveynlerin tanımlamasını ve kaçınmasını zorlaştırıyor.
YouTube, tıklama tuzağıyla mücadele etmek için önizlemeler gibi özellikleri test ediyor, ancak uzmanlar daha proaktif önlemlere ihtiyaç olduğunu savunuyor. Avrupa'daki Dijital Hizmetler Yasası gibi düzenleyici baskılar çocuk güvenliğini inceliyor, ancak mevcut sistem yine de ebeveynlere bu karmaşık manzarada gezinmek için ağır bir yük bindiriyor.
Peki, bakım verenler ne yapabilir? Başlangıç olarak, çocukların ne izlediğini yalnızca küçük resimlere veya başlıklara güvenmek yerine yakından izleyin. Yalnızca onaylı içerik ayarlarıyla YouTube Kids'i kullanın ve güvenilir kaynaklardan gelmedikçe "eğitici" etiketli videolara şüpheyle yaklaşın. Amerikan Pediatri Akademisi, yapay zeka üretimi ve aşırı sansasyonel içerikten kaçınmayı öneriyor ve genç öğrenciler için titizlikle seçilmiş, yüksek kaliteli medyanın önemini vurguluyor.
İleriye dönük olarak, yenilikçi çözümler çok yönlü bir yaklaşım gerektiriyor: platformlar daha iyi yapay zeka tespit araçlarına yatırım yapmalı ve tüm sentetik içerik için daha katı etiketleme uygulamalı, toplum ise erken yaşlardan itibaren dijital okuryazarlığı teşvik etmeli. Dikkatlilik ile teknolojiyi harmanlayarak, çocukların akışlarını çarpıtmadan zenginleştirmeye yönlendirebilir, yapay zekanın aldatma için değil, öğrenme için bir araç olarak hizmet etmesini sağlayabiliriz.