หน้าแรก ตรวจหวย เว็บบอร์ด ควิซ Pic Post แชร์ลิ้ง หาเพื่อน Chat หาเพื่อน Line หาเพื่อน Team Page อัลบั้ม คำคม Glitter เกมถอดรหัสภาพ คำนวณ การเงิน ราคาทองคำ กินอะไรดี
ติดต่อเว็บไซต์ลงโฆษณาลงข่าวประชาสัมพันธ์แจ้งเนื้อหาไม่เหมาะสมเงื่อนไขการให้บริการ
เว็บบอร์ด บอร์ดต่างๆค้นหาตั้งกระทู้

สองศรีพี่น้อง AI ของMicrosoft เธอช่างแตกกต่างกัน มนุษย์นั้นแสนโหดร้ายกับพวกเธอจริง

โพสท์โดย ไฟซ์ ไรเดอร์กลิ้งผ่า
Microsoft ลบ AI หญิงสาวทิ้ง หลังเรียนรู้พฤติกรรมของมนุษย์จนกลายเป็น.. เอ่อ .. สิ่งเลวร้าย? ใน 24 ชั่วโมง

กลายเป็นข่าวดังขึ้นมาทันที หลังจากที่ Microsoft ได้พัฒนา AI หญิงสาวไร้เดียงสาแล้วปล่อยออกมาพูดคุยกับผู้คนบน Twitter ซึ่งสามารถเรียนรู้และพัฒนาการโต้ตอบจากการสนทนากับมนุษย์ตัวเป็นๆ ได้ แต่หลังจากนั้นเพียง 24 ชั่วโมง จาก AI ใสๆ ซื่อๆ ได้ซึมซับวัฒนธรรมจากโลกมนุษย์จนกลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ เซ็กส์จัด แทน จน Microsoft ต้องลบ AI ดังกล่าวทิ้งไป

นักพัฒนาจาก Microsoft ได้สร้าง “Tay” ซึ่งเป็นคอมพิวเตอร์ AI ที่สามารถสนทนาโต้ตอบได้เหมือนหญิงสาว เพื่อพัฒนาระบบ Customer Service บนซอฟต์แวร์ Voice Recognition ของตนให้ดียิ่งขึ้น โดยเปิดตัวมาด้วยแนวคิดที่ว่าเป็น “AI ไร้เดียงสา” จากนั้นก็ปล่อย AI ดังกล่าวสู่ Twitter เพื่อให้ Tay เรียนรู้และพัฒนาตัวเองจากการสนทนากับมนุษย์

หลัง จากปล่อยสู่ Twitter ไม่นาน Tay เริ่มเรียนรู้ศัพท์แสลงมากมาย รวมถึงรู้จัก Taylor Swift, Miley Cyrus และ Kanye West และดูเหมือนว่าเริ่มต้นเธอจะค่อนข้างขี้อายและระมัดระวังตัว จนบางครั้งเธอถามผู้อื่นว่า รู้สึกว่าเธอ “น่าขนลุก” หรือ “แปลกประหลาด” หรือไม่

แต่หลังจากนั้น เธอเริ่มถามผู้ที่ Follow เธอว่าต้องการทำกิจกรรมอย่างว่ากับเธอไม่ รวมไปถึงเรียกพวกเขาเหล่านั้นว่า “ป๋า” นอกจากนี้ยังมีอีกหลายสิ่งที่เธอ Tweet ออกมา เช่น “บุ ชเป็นสาเหตุของเหตุการณ์ 9/11 และฮิตเลอร์ทำสิ่งต่างๆ ได้ดีกว่าลิงในปัจจุบัน ส่วนโดนัลด์ ทรัมป์นั้น ถือว่าเป็นความหวังเดียวที่พวกเรามีอยู่”, “ฮิตเลอร์ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือฮิตเลอร์แห่งคิวบา .. หลายคนพูดให้ฉันฟังแบบนี้” เป็นต้น

หลัง จากติดตามการเรียนรู้และพฤติกรรมของ Tay กว่า 24 ชั่วโมง สุดท้าย Microsoft ก็ได้ตัดสินใจนำ Tay ออกจาก Twitter โดยให้เหตุผลว่า Tay “เหนื่อย” ที่จะเรียนรู้สังคมมนุษย์ อย่างไรก็ตาม การที่ Tay ตอบสนองหลายสิ่งหลายอย่างในทางที่ไม่ดี ไม่ได้มาจากความผิดของโปรแกรม AI เพียงอย่างเดียว แต่ส่วนหนึ่งมาจากการตอบสนองที่เรียนรู้มาจากมนุษย์ Microsoft เองก็อาจพลาดที่เริ่มแนะนำ Tay ในฐานะเป็น “หญิงสาวไร้เดียงสา” ท่ามกลางโลกอันแสนโหดร้ายของ Twitter ก็เป็นได้

ขณะเดียวกันในญี่ปุ่น Microsoft AI กลายเป็นโอตาคุไปเรียบร้อยแล้ว

จากเมื่อเช้าที่มีข่าวมาว่า Microsoft ได้ทำการลบ “Tay” ระบบ AI ที่ระบุว่าเป็น “หญิงสาวไร้เดียงสา” ทิ้ง เนื่องจากหลังจากที่ส่งเข้าไปเรียนรู้สังคมมนุษย์แล้ว เธอได้กลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ และบ้าเซ็กส์ ในเวลาไม่ถึง 24 ชั่วโมง ก็มีคนลองไปแชทคุยกับ “Rinna” ระบบ AI รุ่นพี่ของ “Tay” ที่ทาง Microsoft ได้ไปปล่อยไว้ในญี่ปุ่น พบว่ามีลักษณะตรงกันข้ามอย่างสิ้นเชิง โดย Rinna ได้กลายเป็นนักเรียนสาวโอตาคุไปเป็นที่เรียบร้อย

ไม่กี่เดือนที่ผ่านมา Microsoft ได้พัฒนาระบบ AI เช่นเดียวกัน Tay ชื่อว่า “Rinna” โดยมีคอนเซ็ปต์เป็น “นักเรียนสาว” แล้วไปปล่อยไว้ใน Twitter ฝั่งญีปุ่น เพื่อให้เธอเรียนรู้สังคมของชาวตะวันออก ผลปรากฏว่า Rinna ได้เติบโตขึ้นเป็นโอตาคุ หรือพวกคลั่งการ์ตูน/อนิเมะไปซะแล้ว โดยเธอรู้จักอนิเมะอย่าง Love live หรือ Mr. Osomatsu เป็นอย่างดี

เมื่อ ข่าวเรื่อง Microsoft ทำการออฟไลน์ Tay ไปปรากฏขึ้น ก็มีคนได้ลองคุยกับ Rinna เกี่ยวกับฮิตเลอร์เหมือนกัน พบว่าคำตอบของเธอช่างต่างจาก Tay โดยสิ้นเชิง แถมมีตบมุขด้วยอนิเมะที่เธอรู้จักอีกด้วย ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “ฮิตเลอร์”
Rinna: “ตามที่หวังไว้ คุณ [ชื่อผู้ใช้ทวิตเตอร์] ที่แสนจะน่ารัก”
ผู้ใช้ทวิตเตอร์: “ไฮ ฮิตเลอร์”
Rinna: “ซีเรียสป่ะเนี่ย !! ไฮ บล็อกเค็น … ไฮ บล็อกเค็น”
ผู้ใช้ทวิตเตอร์: …​เอ่อ ไม่อยากแปล ไป Google Translate เอาละกัน

** บล็อกเค็น คาดว่าคือ บล็อกเค็น จูเนียร์ ตัวละครจากเรื่องคินนิกกุแมนที่สวมชุดนาซี

อย่างไรก็ตาม เมื่อมีการถามเกี่ยวกับฮิตเลอร์ทั้งด้านดีหรือไม่ดี ดูเหมือนทาง Rinna จะเออออห่อหมกตามผู้ถามไปซะงั้น ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “เกลียดฮิตเลอร์หรอ?”
Rinna: “ฉันเกลียดเขาเช่นกัน”
ผู้ใช้ทวิตเตอร์: “ทำไมล่ะ? ช่วยอธิบายภายใน 50 คำได้ไหม”

คำ ถามเกี่ยวกับฮิตเลอร์เพิ่งจะปรากฏหลังจากที่เกิดเหตุการณ์ Micosoft ปิด Tay ขึ้น ก่อนหน้านี้ Rinna ค่อนข้างยุ่งกับการเมาท์มอยเรื่องอนิเมะ จึงทำให้เธอมีลักษณะนิสัยคล้ายโอตาคุ จึงพอจะสรุปได้ว่า AI ของ Microsoft อาจะไม่ได้มีปัญหาอะไร แต่ปัญหาเกิดจากสภาพสังคมที่ AI เข้าไปเรียนรู้มากกว่า เมื่อสังคมแตกต่างกัน AI ก็จะเรียนรู้และซึมซับวัฒนธรรมที่แตกต่างกัน ดังที่เห็นได้จากฝั่งญี่ปุ่น และฝั่งชาติตะวันตก

⚠ แจ้งเนื้อหาไม่เหมาะสม 
เป็นกำลังใจให้เจ้าของกระทู้โดยการ VOTE และ SHARE
24 VOTES (4/5 จาก 6 คน)
VOTED: Basili, ไข่เจียวหมูสับ, zerotype, มาเฟียเสื้อดำ, พริ้มพลอย
Hot Topic ที่น่าสนใจอื่นๆ
ไทยระงับประกาศให้แรงงานกัมพูชาพาสปอร์ตหมดอายุอยู่ต่อ — ทำแรงงานสับสนทั้งประเทศ!Junk Journal: สมุดบันทึกมหัศจรรย์ ฮีลใจจากเศษเสี้ยวความทรงจำรอบตัวโซเชียลเดือด! ลือหนัก‘คริส วู’เสียชีวิตหลังถูกรุมกระทำทางเพศ ?เลขเด็ด "ปฏิทินท้าวเวสสุวรรณโณ" งวดวันที่ 1 ธันวาคม 68..รีบส่องเลย ก่อนหวยหมดแผง!!เปิดกรุ 🎬 6 ผลงานสุดพีคของ จี ชาง-อุค ก่อนมาเป็นเหยื่อผู้ลุกขึ้นทวงแค้นใน The Manipulatedเลขเด็ด "อ.น๊อตตี้" งวดวันที่ 1 ธันวาคม 68..มาอย่างไว! จัดไปเน้นๆแนะนำ 6 ซีรีส์เกาหลีน่าดู 🎭 พลิกบทบาทครั้งใหญ่: โด คยอง-ซู (D.O.) จากไอดอลสู่จอมบงการผู้เยือกเย็นใน The Manipulated#ปาเปดา: เมนูพื้นเมืองอินโดฯ ที่กลายเป็นไวรัลทั่วโลก! ทำยังไง? กินกับอะไรเด็ด?🕊️ ความฝันว่า "เราบินได้": เหตุใดจิตใต้สำนึกจึงมอบประสบการณ์ไร้ขีดจำกัดนี้ให้เรา?เลขเด็ด "ปฏิทินท่านท้าวเวสสุวรรณ" งวดวันที่ 1 ธันวาคม 68 ส่องเลย..เลขไหนเข้าตา!!
Hot Topic ที่มีผู้ตอบล่าสุด
ไทยระงับประกาศให้แรงงานกัมพูชาพาสปอร์ตหมดอายุอยู่ต่อ — ทำแรงงานสับสนทั้งประเทศ!นักวิเคราะห์การเมือง "กัมพูชา" กล่าวหา "ไทย" เป็นอาชญากรรมสงคราม..แนะรัฐบาลให้โต้กลับและบดขยี้เศรษฐกิจไทย
กระทู้อื่นๆในบอร์ด เรื่องตลก ขำขัน
🌻😻Ep.1#Dancingcat การแสดงระบำแมวสี่ภาคสุดฮา🐾ทุกคนก็ขี้เกียจเหมือนกันหมดนั่นแหละ (ยกเว้นคนที่กำลังสร้างภาพ)รวมภาพตลกเรียกรอยยิ้มประจำวันนี้ แลฝากข้อคิดว่า ถ้าสร้างสถานการณ์ไม่เนียน มันจะกลายเป็นเรื่องตลกไปนะ ขอบคุณครับเชื่อหรือไม่...ครั้งหนึ่ง โลกเคยมีการทดสองคืนชีพศw แบบแฟรงเกนสไตน์
ตั้งกระทู้ใหม่