ภูมิทัศน์ดิจิทัลสำหรับเด็กกำลังถูกปรับเปลี่ยนด้วยกระแสวิดีโอสังเคราะห์จำนวนมหาศาล ซึ่งอัลกอริทึมคัดเลือกฟีดด้วยการกำกับดูแลของมนุษย์เพียงน้อยนิด การสืบสวนเผยว่า กว่า 40% ของ YouTube Shorts ที่ถูกแนะนำหลังจากดูรายการยอดนิยมอย่าง CoComelon นั้นเต็มไปด้วยภาพที่สร้างด้วย AI สร้างสภาพแวดล้อมที่บิดเบือนสำหรับจิตใจที่ยังอ่อนไหวและรับอิทธิพลได้ง่ายของเด็ก
การเพิ่มขึ้นอย่างรวดเร็วนี้ไม่ใช่แค่เรื่องอนิเมชั่นแปลกตาเท่านั้น มันเป็นปัญหาระบบที่เนื้อหาคุณภาพต่ำซึ่งผลิตเป็นจำนวนมากท่วมท้นฟีดของเด็ก มักปลอมตัวเป็นสื่อการศึกษา ความง่ายในการสร้างวิดีโอประเภทนี้ด้วยเครื่องมือที่สร้างสคริปต์ ภาพ และการบรรยายได้ในไม่กี่นาที ได้จุดชนวนให้เกิดสิ่งที่ผู้เชี่ยวชาญเรียกว่า "ขยะ AI" ซึ่งพุ่งเป้าไปที่ผู้ชมที่เปราะบางซึ่งแยกแยะระหว่างเนื้อหาปลอมกับของแท้ได้ยาก
ที่น่าตกใจคือ วิดีโอ AI จำนวนมากก้าวข้ามเส้นแบ่งไปสู่การสอนพฤติกรรมอันตราย ตั้งแต่คลิปที่แสดงให้เด็กเล่นในที่จราจร ไปจนถึงคลิปที่แสดงให้ทารกกินสิ่งอันตรายที่อาจทำให้ติดคอได้ เช่น องุ่นทั้งลูกหรือผลเอลเดอร์เบอร์รี่ดิบที่เป็นพิษ เนื้อหาเปลี่ยนจากปลอดภัยเป็นอันตราย ผู้เชี่ยวชาญด้านสุขภาพเตือนว่าข้อผิดพลาดเหล่านี้ไม่ใช่เรื่องเล็ก เด็กเล็กพึ่งพาการซ้ำๆ ดังนั้นข้อมูลที่ไม่ถูกต้องอาจติดตรึงใจเมื่อถูกนำเสนอในรูปแบบที่สดใส น่าสนใจ และเลียนแบบแหล่งการเรียนรู้ที่เชื่อถือได้
ดร.เจนนี่ ราเดสกี้ กุมารแพทย์พัฒนาการและพฤติกรรม ชี้ให้เห็นถึง "ความไร้ความหมาย" ของวิดีโอเหล่านี้ ซึ่งดึงดูดความสนใจโดยไม่ให้คุณค่าทางการศึกษาที่แท้จริง ความขัดแย้งระหว่างการนำเสนอและความเป็นจริงนี้ ส่งเสริมความไม่ลงรอยกันทางปัญญา ซึ่งอาจบั่นทอนความเข้าใจของเด็กเกี่ยวกับความปลอดภัยและบรรทัดฐาน
เครื่องมือแนะนำของ YouTube มีบทบาทสำคัญในการบิดเบือนนี้ การวิเคราะห์ของนิวยอร์กไทมส์พบว่า อัลกอริทึมนำเสนอวิดีโอที่สร้างด้วย AI ให้เด็กอย่างเป็นระบบ โดยเฉพาะหลังจากที่พวกเขาดูเนื้อหาที่มีชื่อเสียงอย่าง Bluey หรือ Ms. Rachel นี่ไม่ใช่เรื่องบังเอิญ การออกแบบของแพลตฟอร์มให้ความสำคัญกับการมีส่วนร่วม และเนื้อหาที่สร้างด้วย AI ซึ่งมีองค์ประกอบที่ซ้ำๆ และติดหู เข้ากันได้ดีกับโมเดลนี้ ทำให้ขอบเขตการเข้าถึงกว้างขึ้น
การมุ่งเน้นที่ YouTube Shorts ทำให้ปัญหารุนแรงขึ้น วิดีโอสั้นเหมาะสำหรับการสร้างด้วย AI เนื่องจากความสั้นและเรียบง่าย ทำให้ผู้สร้างสามารถผลิตเนื้อหาได้รวดเร็ว เมื่อเด็กเลื่อนดูฟีดเหล่านี้ พวกเขาถูกโจมตีด้วยคลิปสังเคราะห์ที่อัลกอริทึมตัดสินว่าเกี่ยวข้องตามรูปแบบการมีส่วนร่วมมากกว่าคุณภาพหรือความถูกต้อง สร้างวงจรย้อนกลับของการบิดเบือน
ทำไมเนื้อหาเหล่านี้จึงมีอยู่? แรงขับเคลื่อนส่วนใหญ่คือเรื่องเงิน ผู้สร้างใช้เครื่องมือ AI ผลิตวิดีโอในไม่กี่นาที โดยพุ่งเป้าไปที่หัวข้อที่มีความต้องการสูงซึ่งผู้ปกครองค้นหาออนไลน์ ดังตัวอย่างหนึ่งแสดงให้เห็นว่า คำสั่งเดียวสามารถสร้างวิดีโอเพลงเด็กเต็มเรื่องที่ปรับให้เหมาะกับ YouTube พร้อมอนิเมชั่นสดใสและเนื้อเพลงที่ตรงจังหวะ ช่องที่ใช้วิธีนี้ได้รับรายได้จากโฆษณา โดยบางช่องรายงานว่าทำเงินได้หลายล้าน ส่งเสริมให้มีการผลิตจำนวนมากโดยไม่มีกำกับดูแลทางจริยธรรม
ซาเอดา จาเรีย ฮัสซัน ผู้สร้างจากปากีสถาน เปลี่ยนการสร้างเนื้อหา AI เป็นงานเต็มเวลา แสดงให้เห็นว่าเศรษฐกิจนี้เข้าถึงได้ง่ายเพียงใด ความไม่เปิดเผยตัวตนของบัญชีจำนวนมากทำให้ปัญหาซับซ้อนขึ้น เนื่องจากมีการตรวจสอบความรับผิดชอบต่อความถูกต้องหรือความปลอดภัยของเนื้อหาน้อยมาก ทำให้ฟีดของเด็กกลายเป็นสนามเด็กเล่นที่ขับเคลื่อนด้วยผลกำไร
ผู้เชี่ยวชาญด้านพัฒนาการเด็กกำลังแสดงความกังวลเร่งด่วน คาร์ลา เองเกลเบรชท์ อดีตทีมงานของเซซามี สตรีต ระบุว่าเนื้อหานี้ "อันตรายอย่างยิ่ง" โดยอธิบายว่าเป็น "ข้อมูลเท็จ AI สำหรับเด็กวัยหัดเดินในระดับอุตสาหกรรม" ความเสี่ยงคือ เด็กเล็กที่ยังเรียนรู้ที่จะแยกแยะระหว่างจินตนาการกับความเป็นจริง อาจซึมซับข้อความที่บิดเบือนเหล่านี้ ส่งผลต่อโลกทัศน์และพัฒนาการของพวกเขา
ดอนนา ซัสคินด์ ศาสตราจารย์แห่งมหาวิทยาลัยชิคาโก ตั้งข้อสังเกตว่าปัญหานี้ถูกกระตุ้นโดย "ขยะ AI" ซึ่งเครื่องมืออัตโนมัติทำให้การกำกับดูแลมีน้อย วงจรการผลิตที่รวดเร็วนี้หมายความว่าข้อความที่เป็นอันตรายสามารถแพร่กระจายได้กว้างขวางก่อนที่จะถูกตรวจจับ ทำให้ความปลอดภัยทางปัญญาและร่างกายของเด็กตกอยู่ในความเสี่ยงในรูปแบบที่สื่อดั้งเดิมทำได้ยาก
ในการตอบสนอง YouTube ได้ดำเนินการเช่นระงับช่องจากโปรแกรมพาร์ทเนอร์และลบวิดีโอที่ถูกตั้งธงว่าเป็นอันตราย อย่างไรก็ตาม ยังมีช่องว่างนโยบายที่สำคัญอยู่ แพลตฟอร์มกำหนดให้ต้องเปิดเผยสำหรับเนื้อหาสังเคราะห์ที่สมจริง แต่ไม่ใช่สำหรับวิดีโอ AI แบบแอนิเมชัน ซึ่งครองเนื้อหาสำหรับเด็ก ช่องโหว่นี้หมายความว่าเนื้อหาจำนวนมากที่เข้าถึงเด็กไม่ได้รับการติดป้าย ทำให้ผู้ปกครองระบุและหลีกเลี่ยงได้ยาก
YouTube กำลังทดสอบฟีเจอร์ต่างๆ เช่น การแสดงตัวอย่างเพื่อต่อสู้กับคลิกเบต แต่ผู้เชี่ยวชาญโต้แย้งว่าจำต้องมีมาตรการเชิงรุกมากขึ้น แรงกดดันด้านกฎระเบียบ เช่น พระราชบัญญัติบริการดิจิทัลในยุโรป กำลังตรวจสอบความปลอดภัยของเด็ก แต่ระบบปัจจุบันยังคงวางภาระหนักบนผู้ปกครองในการเดินทางผ่านภูมิทัศน์ที่ซับซ้อนนี้
แล้วผู้ดูแลจะทำอะไรได้บ้าง? เริ่มต้นด้วยการตรวจสอบสิ่งที่เด็กดูอย่างใกล้ชิด แทนที่จะพึ่งพาเพียงภาพขนาดย่อหรือชื่อเรื่อง ใช้ YouTube Kids ด้วยการตั้งค่าที่อนุญาตเฉพาะเนื้อหาที่อนุมัติ และให้ตั้งข้อสงสัยกับวิดีโอที่ติดป้ายว่า "การศึกษา" เว้นแต่จะมาจากแหล่งที่น่าเชื่อถือ สมาคมกุมารเวชศาสตร์อเมริกันแนะนำให้หลีกเลี่ยงเนื้อหาที่สร้างด้วย AI และเนื้อหาที่ตื่นเต้นเร้าใจสูง โดยเน้นความสำคัญของสื่อคุณภาพสูงที่คัดสรรมาอย่างดีสำหรับผู้เรียนรุ่นเยาว์
ก้าวไปข้างหน้า วิธีแก้ไขที่สร้างสรรค์ต้องใช้แนวทางหลายแง่มุม: แพลตฟอร์มต้องลงทุนในเครื่องมือตรวจจับ AI ที่ดีขึ้นและบังคับใช้การติดป้ายที่เข้มงวดขึ้นสำหรับเนื้อหาสังเคราะห์ทั้งหมด ในขณะที่สังคมส่งเสริมการรู้ดิจิทัลตั้งแต่อายุยังน้อย ด้วยการผสมผสานความตื่นตัวกับเทคโนโลยี เราสามารถนำทางฟีดของเด็กไปสู่การเสริมสร้างมากกว่าการบิดเบือน เพื่อให้แน่ใจว่า AI ทำหน้าที่เป็นเครื่องมือสำหรับการเรียนรู้ ไม่ใช่การหลอกลวง