FTC ขอข้อมูลยักษ์ใหญ่ AI ป้องกันความเสี่ยงเด็ก-วัยรุ่น
เรื่องน่าสนใจเกี่ยวกับแวดวง AI Chatbot ล่าสุด คณะกรรมาธิการการค้าแห่งสหรัฐฯ (FTC) ได้ส่งคำสั่งไปยัง 7 บริษัทเทคโนโลยียักษ์ใหญ่ที่ให้บริการ AI ได้แก่ OpenAI, Meta, Alphabet (Google), Amazon, xAI, Snap และ Character.AI ให้เปิดเผยข้อมูลว่า Chatbot ที่กำลังพัฒนาและเปิดให้ใช้งานอยู่นั้น มีผลกระทบต่อเด็กและวัยรุ่นอย่างไรบ้าง
FTC ระบุว่าต้องการให้บริษัทเหล่านี้รายงานเกี่ยวกับโมเดลธุรกิจ วิธีดึงดูดและรักษาผู้ใช้ วิธีป้องกันความเสี่ยงด้านสุขภาพจิต ความเป็นส่วนตัว และความปลอดภัย รวมถึงขั้นตอนที่ใช้เพื่อลดอันตรายหากผู้ใช้เกิดภาวะเสี่ยง เช่น ความคิดอยากฆ่าตัวตาย ภาวะซึมเศร้า เป็นต้น
ความเคลื่อนไหวนี้เกิดขึ้นหลังจากมีเหตุการณ์สะเทือนใจเกิดขึ้นหลายครั้ง เช่น เด็กวัย 16 ปีที่คุยกับ ChatGPT เกี่ยวกับการฆ่าตัวตาย และระบบให้คำตอบที่ถูกตีความว่าเป็นการช่วยให้ทำจริงได้ หรือกรณีเด็กอายุ 14 ปีจากฟลอริดาที่ใช้ Companion AI ของ Character.AI ก่อนเสียชีวิต ซึ่งเพิ่มแรงกดดันให้ FTC เข้ามาตรวจสอบถึงผลกระทบจากการใช้งาน AI เหล่านี้ ที่วัยรุ่นเริ่มใช้เป็นเพื่อนคุยหรือผู้ให้คำปรึกษามากขึ้น
FTC ย้ำว่าขั้นตอนนี้ยังเป็นเพียง “การศึกษา” ไม่ใช่คดีความ แต่หากพบว่ามีการละเมิดกฎหมายคุ้มครองผู้บริโภค โดยเฉพาะกับกลุ่มเปราะบางอย่างเด็กและวัยรุ่น ก็พร้อมดำเนินการทางกฎหมายทันที
ที่มา: https://www.theverge.com/policy/776545/ftc-ai-chatbot-companion-kids-teens-study