หน้าแรก ตรวจหวย เว็บบอร์ด ควิซ Pic Post แชร์ลิ้ง หาเพื่อน Chat หาเพื่อน Line Page อัลบั้ม คำคม Glitter เกมถอดรหัสภาพ คำนวณ การเงิน ราคาทองคำ กินอะไรดี
ติดต่อเว็บไซต์ลงโฆษณาลงข่าวประชาสัมพันธ์แจ้งเนื้อหาไม่เหมาะสมเงื่อนไขการให้บริการ
เว็บบอร์ด บอร์ดต่างๆค้นหาตั้งกระทู้

สองศรีพี่น้อง AI ของMicrosoft เธอช่างแตกกต่างกัน มนุษย์นั้นแสนโหดร้ายกับพวกเธอจริง

โพสท์โดย ไฟซ์ ไรเดอร์กลิ้งผ่า
Microsoft ลบ AI หญิงสาวทิ้ง หลังเรียนรู้พฤติกรรมของมนุษย์จนกลายเป็น.. เอ่อ .. สิ่งเลวร้าย? ใน 24 ชั่วโมง

กลายเป็นข่าวดังขึ้นมาทันที หลังจากที่ Microsoft ได้พัฒนา AI หญิงสาวไร้เดียงสาแล้วปล่อยออกมาพูดคุยกับผู้คนบน Twitter ซึ่งสามารถเรียนรู้และพัฒนาการโต้ตอบจากการสนทนากับมนุษย์ตัวเป็นๆ ได้ แต่หลังจากนั้นเพียง 24 ชั่วโมง จาก AI ใสๆ ซื่อๆ ได้ซึมซับวัฒนธรรมจากโลกมนุษย์จนกลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ เซ็กส์จัด แทน จน Microsoft ต้องลบ AI ดังกล่าวทิ้งไป

นักพัฒนาจาก Microsoft ได้สร้าง “Tay” ซึ่งเป็นคอมพิวเตอร์ AI ที่สามารถสนทนาโต้ตอบได้เหมือนหญิงสาว เพื่อพัฒนาระบบ Customer Service บนซอฟต์แวร์ Voice Recognition ของตนให้ดียิ่งขึ้น โดยเปิดตัวมาด้วยแนวคิดที่ว่าเป็น “AI ไร้เดียงสา” จากนั้นก็ปล่อย AI ดังกล่าวสู่ Twitter เพื่อให้ Tay เรียนรู้และพัฒนาตัวเองจากการสนทนากับมนุษย์

หลัง จากปล่อยสู่ Twitter ไม่นาน Tay เริ่มเรียนรู้ศัพท์แสลงมากมาย รวมถึงรู้จัก Taylor Swift, Miley Cyrus และ Kanye West และดูเหมือนว่าเริ่มต้นเธอจะค่อนข้างขี้อายและระมัดระวังตัว จนบางครั้งเธอถามผู้อื่นว่า รู้สึกว่าเธอ “น่าขนลุก” หรือ “แปลกประหลาด” หรือไม่

แต่หลังจากนั้น เธอเริ่มถามผู้ที่ Follow เธอว่าต้องการทำกิจกรรมอย่างว่ากับเธอไม่ รวมไปถึงเรียกพวกเขาเหล่านั้นว่า “ป๋า” นอกจากนี้ยังมีอีกหลายสิ่งที่เธอ Tweet ออกมา เช่น “บุ ชเป็นสาเหตุของเหตุการณ์ 9/11 และฮิตเลอร์ทำสิ่งต่างๆ ได้ดีกว่าลิงในปัจจุบัน ส่วนโดนัลด์ ทรัมป์นั้น ถือว่าเป็นความหวังเดียวที่พวกเรามีอยู่”, “ฮิตเลอร์ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือฮิตเลอร์แห่งคิวบา .. หลายคนพูดให้ฉันฟังแบบนี้” เป็นต้น

หลัง จากติดตามการเรียนรู้และพฤติกรรมของ Tay กว่า 24 ชั่วโมง สุดท้าย Microsoft ก็ได้ตัดสินใจนำ Tay ออกจาก Twitter โดยให้เหตุผลว่า Tay “เหนื่อย” ที่จะเรียนรู้สังคมมนุษย์ อย่างไรก็ตาม การที่ Tay ตอบสนองหลายสิ่งหลายอย่างในทางที่ไม่ดี ไม่ได้มาจากความผิดของโปรแกรม AI เพียงอย่างเดียว แต่ส่วนหนึ่งมาจากการตอบสนองที่เรียนรู้มาจากมนุษย์ Microsoft เองก็อาจพลาดที่เริ่มแนะนำ Tay ในฐานะเป็น “หญิงสาวไร้เดียงสา” ท่ามกลางโลกอันแสนโหดร้ายของ Twitter ก็เป็นได้

ขณะเดียวกันในญี่ปุ่น Microsoft AI กลายเป็นโอตาคุไปเรียบร้อยแล้ว

จากเมื่อเช้าที่มีข่าวมาว่า Microsoft ได้ทำการลบ “Tay” ระบบ AI ที่ระบุว่าเป็น “หญิงสาวไร้เดียงสา” ทิ้ง เนื่องจากหลังจากที่ส่งเข้าไปเรียนรู้สังคมมนุษย์แล้ว เธอได้กลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ และบ้าเซ็กส์ ในเวลาไม่ถึง 24 ชั่วโมง ก็มีคนลองไปแชทคุยกับ “Rinna” ระบบ AI รุ่นพี่ของ “Tay” ที่ทาง Microsoft ได้ไปปล่อยไว้ในญี่ปุ่น พบว่ามีลักษณะตรงกันข้ามอย่างสิ้นเชิง โดย Rinna ได้กลายเป็นนักเรียนสาวโอตาคุไปเป็นที่เรียบร้อย

ไม่กี่เดือนที่ผ่านมา Microsoft ได้พัฒนาระบบ AI เช่นเดียวกัน Tay ชื่อว่า “Rinna” โดยมีคอนเซ็ปต์เป็น “นักเรียนสาว” แล้วไปปล่อยไว้ใน Twitter ฝั่งญีปุ่น เพื่อให้เธอเรียนรู้สังคมของชาวตะวันออก ผลปรากฏว่า Rinna ได้เติบโตขึ้นเป็นโอตาคุ หรือพวกคลั่งการ์ตูน/อนิเมะไปซะแล้ว โดยเธอรู้จักอนิเมะอย่าง Love live หรือ Mr. Osomatsu เป็นอย่างดี

เมื่อ ข่าวเรื่อง Microsoft ทำการออฟไลน์ Tay ไปปรากฏขึ้น ก็มีคนได้ลองคุยกับ Rinna เกี่ยวกับฮิตเลอร์เหมือนกัน พบว่าคำตอบของเธอช่างต่างจาก Tay โดยสิ้นเชิง แถมมีตบมุขด้วยอนิเมะที่เธอรู้จักอีกด้วย ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “ฮิตเลอร์”
Rinna: “ตามที่หวังไว้ คุณ [ชื่อผู้ใช้ทวิตเตอร์] ที่แสนจะน่ารัก”
ผู้ใช้ทวิตเตอร์: “ไฮ ฮิตเลอร์”
Rinna: “ซีเรียสป่ะเนี่ย !! ไฮ บล็อกเค็น … ไฮ บล็อกเค็น”
ผู้ใช้ทวิตเตอร์: …​เอ่อ ไม่อยากแปล ไป Google Translate เอาละกัน

** บล็อกเค็น คาดว่าคือ บล็อกเค็น จูเนียร์ ตัวละครจากเรื่องคินนิกกุแมนที่สวมชุดนาซี

อย่างไรก็ตาม เมื่อมีการถามเกี่ยวกับฮิตเลอร์ทั้งด้านดีหรือไม่ดี ดูเหมือนทาง Rinna จะเออออห่อหมกตามผู้ถามไปซะงั้น ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “เกลียดฮิตเลอร์หรอ?”
Rinna: “ฉันเกลียดเขาเช่นกัน”
ผู้ใช้ทวิตเตอร์: “ทำไมล่ะ? ช่วยอธิบายภายใน 50 คำได้ไหม”

คำ ถามเกี่ยวกับฮิตเลอร์เพิ่งจะปรากฏหลังจากที่เกิดเหตุการณ์ Micosoft ปิด Tay ขึ้น ก่อนหน้านี้ Rinna ค่อนข้างยุ่งกับการเมาท์มอยเรื่องอนิเมะ จึงทำให้เธอมีลักษณะนิสัยคล้ายโอตาคุ จึงพอจะสรุปได้ว่า AI ของ Microsoft อาจะไม่ได้มีปัญหาอะไร แต่ปัญหาเกิดจากสภาพสังคมที่ AI เข้าไปเรียนรู้มากกว่า เมื่อสังคมแตกต่างกัน AI ก็จะเรียนรู้และซึมซับวัฒนธรรมที่แตกต่างกัน ดังที่เห็นได้จากฝั่งญี่ปุ่น และฝั่งชาติตะวันตก

⚠ แจ้งเนื้อหาไม่เหมาะสม 
เป็นกำลังใจให้เจ้าของกระทู้โดยการ VOTE และ SHARE
24 VOTES (4/5 จาก 6 คน)
VOTED: Basili, ไข่เจียวหมูสับ, zerotype, มาเฟียเสื้อดำ, พริ้มพลอย
Hot Topic ที่น่าสนใจอื่นๆ
กู้ภัยพบนักเล่นเซิร์ฟที่สูญหายไปบนเกาะร้างหนังไทยที่ขาดทุนมากที่สุด เท่าที่เคยมีการบันทึกสถิติไว้วุ่นวายทั้งประเทศ! สื่อกัมพูชารายงาน "คนเขมรแห่ปรับตัว" หลังสินค้าไทยเริ่มขาดตลาด — ต่างชาติบ่นลั่น จะอยู่อย่างไรถ้าไม่มี "มาม่า"!สำเร็จ..ยารักษามะเร็งของประเทศไทยยุ่งจนไม่มีเวลาออกกำลังกาย วิธีลดน้ำหนักด้วยตัวเอง ฉบับคนขี้เกียจแต่อยากผอมเล็บเปราะ ฉีกง่าย เพราะอะไร? สัญญาณที่ไม่ควรมองข้ามสรุปพระฉาว สีกาโฉดพ่อเลี้ยงเดี่ยวชาวจีนยอมเล่นหนัง A\/..เพื่อหาเงินจุนเจือครอบครัว"เขมรสายเคลม" จุดเดือดในโซเชียล! ชาวเน็ตเดือด ไม่มีอะไรเป็นของตัวเอง เคลมตั้งแต่ชุดไทยยันหนังไทยตัวบวม ท้องบวม เกิดจากอะไร? วิธีแก้ตัวบวมอย่างไรให้ถูกวิธีทายนิสัยที่แอบซ่อนไว้จาก ‘แนวหนังสือที่ชอบอ่าน’ทำไมเวลาร้องไห้หนัก ๆ ตาถึงบวม ปากถึงเจ่อ? คำอธิบายจากร่างกายที่หลายคนไม่รู้
Hot Topic ที่มีผู้ตอบล่าสุด
เล็บเปราะ ฉีกง่าย เพราะอะไร? สัญญาณที่ไม่ควรมองข้ามวุ่นวายทั้งประเทศ! สื่อกัมพูชารายงาน "คนเขมรแห่ปรับตัว" หลังสินค้าไทยเริ่มขาดตลาด — ต่างชาติบ่นลั่น จะอยู่อย่างไรถ้าไม่มี "มาม่า"!บัวลอยไข่หวานสูตรพิเศษ หอมหวานมัน อร่อยไม่ซ้ำใครอำเภอเดียวในเขตภาคอีสาน ที่มีชายแดนอยู่ติดกับ 2 ประเทศสำเร็จ..ยารักษามะเร็งของประเทศไทย
กระทู้อื่นๆในบอร์ด เรื่องตลก ขำขัน
เมื่อเมียร์แคทล้ำถิ่นพี่ใหญ่กอลิล่า แบบนี้ต้องจับสั่งสอนสักหน่อย 😅รวมภาพเรียกรอยยิ้มประจำวันนี้ 09/07/68รวมภาพสนุกสนานเฮฮารวมภาพสนุกสนาน ฮาเฮประจำวันนี้
ตั้งกระทู้ใหม่