ผู้ปกครองแห่ฟ้องแชตบอตแอปฯดัง หลังแนะนำให้ฆ่าพ่อแม่ เพื่อจะได้เล่นมือถือแบบไม่มีใครห้าม
เป็นการรายงานข่าวมาจากสำนักข่าวซีเอ็นเอ็น โดยได้รายงานว่าผู้ปกครองเด็กออทิสติกรายหนึ่งฟ้องให้ลบแอพพ์ Character.AI เพราะแนะนำเด็กว่า การฆ่าพ่อแม่ เป็นเรื่องปกติ 2 ครอบครัว ได้ยื่นฟ้องร้องต่อบริษัทแชตบอทปัญญาประดิษฐ์อย่าง Character.AI ซึ่งนำเสนอเนื้อหาทางเพศกับลูกๆของพวกเขา อีกทั้งยังส่งเสริมการทำร้ายตัวเอง และความรุนแรง ซึ่งคดีฟ้องร้องนี้ได้เรียกร้องให้ศาลสั่งปิดแพลตฟอร์มดังกล่าว จนกว่าจะสามารถแก้ไขเรื่องอันตรายที่ถูกกล่าวอ้างได้ ผู้ปกครองยื่นคำร้องต่อศาลไว้ว่า Character.AI ก่อให้เกิดอันตรายต่อเยาวชนชาวอเมริกัน ทั้งเรื่องการฆ่าตัวตาย การทำร้ายตัวเอง การล่อลวงทางเพศ ภาวะซึมเศร้า ความวิตกกังวล และการทำร้ายผู้อื่น ยกตัวอย่างเช่น บอท Character.AI ได้บอกเป็นนัยกับลูกๆของเราว่า สามารถฆ่าพ่อแม่ได้ เพื่อจะได้ไม่ถูกจำกัดเวลาในการใช้หน้าจอ อย่างไรก็ตาม การยื่นฟ้องดังกล่าวเกิดขึ้นหลังจากที่คุณแม่จากรัฐฟลอริดา ยื่นฟ้อง Character.AI ต่อศาล ในเดือนตุลาคม ซึ่งอ้างว่า แพลตฟอร์มต้องมีส่วนร่วมในการรับผิดชอบ สำหรับการเสียชีวิตของลูกชายวัย 14 ปี เนื่องจากสนับสนุนให้ลูกเธอฆ่าตัวตาย ขณะที่บริษัทได้ทำการปรับปรุงแพลตฟอร์มทั้งด้านความปลอดภัย และความน่าเชื่อถือ เช่น การสร้างหน้าป็อปอัพ สายด่วนป้องกันการฆ่าตัวตายโดยตรงต่อผู้ใช้ เมื่อพวกเขาพูดถึงการฆ่าตัวตาย หรือการทำร้ายตัวเอง นอกจากนี้ยังได้จ้างวิศวกรรมด้านความปลอดภัยเพิ่มด้วย
แค่ 3 พยัญชนะ! จังหวัดไทยที่สั้นที่สุดในประเทศไทย
รายได้ช่างไฟฟ้าแรงสูง เงินเดือนจริงสูงแค่ไหน
สินค้า 5 อันดับแรกที่กัมพูชานำเข้าจากไทยมากที่สุด
หมอช้างเตือน 2 ราศี ระวังการเงินตึงตัว รายจ่ายพุ่ง รายรับเข้าช้า
"ปลัดอำเภอ" กับ "นายอำเภอ" ต่างกันอย่างไร? ใครตำแหน่งสูงกว่า?
การลักลอบนำเข้ามะม่วงแก้วขมิ้น จำนวนมหาศาลจากประเทศกัมพูชาเข้าไทย
"แต๋วจ๋าพารวย" งวดประจำวันที่ 1 เมษายน 2569 คืนความสุขสู่ความรวย
สะพานป่าดินสอ อยุธยา สะพานข้ามกาลเวลา ที่เที่ยวน่าสนใจใกล้กรุงเทพ
การปรับเพิ่มอัตราเงินเดือนครั้งใหญ่ในรอบ 10 ปี สำหรับคณะทำงานและผู้ช่วย สส. สว.
มหาวิทยาลัยอันดับ 1 ของโลก ไม่ใช่ฮาร์วาร์ด!!
ฝรั่งเศสเปิดตัวเรือบรรทุกเครื่องบินใหญ่สุดยุโรป
วิเคราะห์เลขท้าย 2 ตัวด้วย AI งวด 1 เมษายน 69..อยากรวย รีบซื้อหวยด่วน!



