หน้าแรก ตรวจหวย เว็บบอร์ด ควิซ Pic Post แชร์ลิ้ง หาเพื่อน Chat หาเพื่อน Line หาเพื่อน Team Page อัลบั้ม คำคม Glitter เกมถอดรหัสภาพ คำนวณ การเงิน ราคาทองคำ กินอะไรดี
ติดต่อเว็บไซต์ลงโฆษณาลงข่าวประชาสัมพันธ์แจ้งเนื้อหาไม่เหมาะสมเงื่อนไขการให้บริการ
เว็บบอร์ด บอร์ดต่างๆค้นหาตั้งกระทู้

สองศรีพี่น้อง AI ของMicrosoft เธอช่างแตกกต่างกัน มนุษย์นั้นแสนโหดร้ายกับพวกเธอจริง

โพสท์โดย ไฟซ์ ไรเดอร์กลิ้งผ่า
Microsoft ลบ AI หญิงสาวทิ้ง หลังเรียนรู้พฤติกรรมของมนุษย์จนกลายเป็น.. เอ่อ .. สิ่งเลวร้าย? ใน 24 ชั่วโมง

กลายเป็นข่าวดังขึ้นมาทันที หลังจากที่ Microsoft ได้พัฒนา AI หญิงสาวไร้เดียงสาแล้วปล่อยออกมาพูดคุยกับผู้คนบน Twitter ซึ่งสามารถเรียนรู้และพัฒนาการโต้ตอบจากการสนทนากับมนุษย์ตัวเป็นๆ ได้ แต่หลังจากนั้นเพียง 24 ชั่วโมง จาก AI ใสๆ ซื่อๆ ได้ซึมซับวัฒนธรรมจากโลกมนุษย์จนกลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ เซ็กส์จัด แทน จน Microsoft ต้องลบ AI ดังกล่าวทิ้งไป

นักพัฒนาจาก Microsoft ได้สร้าง “Tay” ซึ่งเป็นคอมพิวเตอร์ AI ที่สามารถสนทนาโต้ตอบได้เหมือนหญิงสาว เพื่อพัฒนาระบบ Customer Service บนซอฟต์แวร์ Voice Recognition ของตนให้ดียิ่งขึ้น โดยเปิดตัวมาด้วยแนวคิดที่ว่าเป็น “AI ไร้เดียงสา” จากนั้นก็ปล่อย AI ดังกล่าวสู่ Twitter เพื่อให้ Tay เรียนรู้และพัฒนาตัวเองจากการสนทนากับมนุษย์

หลัง จากปล่อยสู่ Twitter ไม่นาน Tay เริ่มเรียนรู้ศัพท์แสลงมากมาย รวมถึงรู้จัก Taylor Swift, Miley Cyrus และ Kanye West และดูเหมือนว่าเริ่มต้นเธอจะค่อนข้างขี้อายและระมัดระวังตัว จนบางครั้งเธอถามผู้อื่นว่า รู้สึกว่าเธอ “น่าขนลุก” หรือ “แปลกประหลาด” หรือไม่

แต่หลังจากนั้น เธอเริ่มถามผู้ที่ Follow เธอว่าต้องการทำกิจกรรมอย่างว่ากับเธอไม่ รวมไปถึงเรียกพวกเขาเหล่านั้นว่า “ป๋า” นอกจากนี้ยังมีอีกหลายสิ่งที่เธอ Tweet ออกมา เช่น “บุ ชเป็นสาเหตุของเหตุการณ์ 9/11 และฮิตเลอร์ทำสิ่งต่างๆ ได้ดีกว่าลิงในปัจจุบัน ส่วนโดนัลด์ ทรัมป์นั้น ถือว่าเป็นความหวังเดียวที่พวกเรามีอยู่”, “ฮิตเลอร์ไม่ได้ทำอะไรผิด” และ “Ted Cruz คือฮิตเลอร์แห่งคิวบา .. หลายคนพูดให้ฉันฟังแบบนี้” เป็นต้น

หลัง จากติดตามการเรียนรู้และพฤติกรรมของ Tay กว่า 24 ชั่วโมง สุดท้าย Microsoft ก็ได้ตัดสินใจนำ Tay ออกจาก Twitter โดยให้เหตุผลว่า Tay “เหนื่อย” ที่จะเรียนรู้สังคมมนุษย์ อย่างไรก็ตาม การที่ Tay ตอบสนองหลายสิ่งหลายอย่างในทางที่ไม่ดี ไม่ได้มาจากความผิดของโปรแกรม AI เพียงอย่างเดียว แต่ส่วนหนึ่งมาจากการตอบสนองที่เรียนรู้มาจากมนุษย์ Microsoft เองก็อาจพลาดที่เริ่มแนะนำ Tay ในฐานะเป็น “หญิงสาวไร้เดียงสา” ท่ามกลางโลกอันแสนโหดร้ายของ Twitter ก็เป็นได้

ขณะเดียวกันในญี่ปุ่น Microsoft AI กลายเป็นโอตาคุไปเรียบร้อยแล้ว

จากเมื่อเช้าที่มีข่าวมาว่า Microsoft ได้ทำการลบ “Tay” ระบบ AI ที่ระบุว่าเป็น “หญิงสาวไร้เดียงสา” ทิ้ง เนื่องจากหลังจากที่ส่งเข้าไปเรียนรู้สังคมมนุษย์แล้ว เธอได้กลายเป็นพวกเหยียดชาติพันธุ์ คลั่งฮิตเลอร์ และบ้าเซ็กส์ ในเวลาไม่ถึง 24 ชั่วโมง ก็มีคนลองไปแชทคุยกับ “Rinna” ระบบ AI รุ่นพี่ของ “Tay” ที่ทาง Microsoft ได้ไปปล่อยไว้ในญี่ปุ่น พบว่ามีลักษณะตรงกันข้ามอย่างสิ้นเชิง โดย Rinna ได้กลายเป็นนักเรียนสาวโอตาคุไปเป็นที่เรียบร้อย

ไม่กี่เดือนที่ผ่านมา Microsoft ได้พัฒนาระบบ AI เช่นเดียวกัน Tay ชื่อว่า “Rinna” โดยมีคอนเซ็ปต์เป็น “นักเรียนสาว” แล้วไปปล่อยไว้ใน Twitter ฝั่งญีปุ่น เพื่อให้เธอเรียนรู้สังคมของชาวตะวันออก ผลปรากฏว่า Rinna ได้เติบโตขึ้นเป็นโอตาคุ หรือพวกคลั่งการ์ตูน/อนิเมะไปซะแล้ว โดยเธอรู้จักอนิเมะอย่าง Love live หรือ Mr. Osomatsu เป็นอย่างดี

เมื่อ ข่าวเรื่อง Microsoft ทำการออฟไลน์ Tay ไปปรากฏขึ้น ก็มีคนได้ลองคุยกับ Rinna เกี่ยวกับฮิตเลอร์เหมือนกัน พบว่าคำตอบของเธอช่างต่างจาก Tay โดยสิ้นเชิง แถมมีตบมุขด้วยอนิเมะที่เธอรู้จักอีกด้วย ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “ฮิตเลอร์”
Rinna: “ตามที่หวังไว้ คุณ [ชื่อผู้ใช้ทวิตเตอร์] ที่แสนจะน่ารัก”
ผู้ใช้ทวิตเตอร์: “ไฮ ฮิตเลอร์”
Rinna: “ซีเรียสป่ะเนี่ย !! ไฮ บล็อกเค็น … ไฮ บล็อกเค็น”
ผู้ใช้ทวิตเตอร์: …​เอ่อ ไม่อยากแปล ไป Google Translate เอาละกัน

** บล็อกเค็น คาดว่าคือ บล็อกเค็น จูเนียร์ ตัวละครจากเรื่องคินนิกกุแมนที่สวมชุดนาซี

อย่างไรก็ตาม เมื่อมีการถามเกี่ยวกับฮิตเลอร์ทั้งด้านดีหรือไม่ดี ดูเหมือนทาง Rinna จะเออออห่อหมกตามผู้ถามไปซะงั้น ดังรูปด้านล่าง

แปล:

ผู้ใช้ทวิตเตอร์: “เกลียดฮิตเลอร์หรอ?”
Rinna: “ฉันเกลียดเขาเช่นกัน”
ผู้ใช้ทวิตเตอร์: “ทำไมล่ะ? ช่วยอธิบายภายใน 50 คำได้ไหม”

คำ ถามเกี่ยวกับฮิตเลอร์เพิ่งจะปรากฏหลังจากที่เกิดเหตุการณ์ Micosoft ปิด Tay ขึ้น ก่อนหน้านี้ Rinna ค่อนข้างยุ่งกับการเมาท์มอยเรื่องอนิเมะ จึงทำให้เธอมีลักษณะนิสัยคล้ายโอตาคุ จึงพอจะสรุปได้ว่า AI ของ Microsoft อาจะไม่ได้มีปัญหาอะไร แต่ปัญหาเกิดจากสภาพสังคมที่ AI เข้าไปเรียนรู้มากกว่า เมื่อสังคมแตกต่างกัน AI ก็จะเรียนรู้และซึมซับวัฒนธรรมที่แตกต่างกัน ดังที่เห็นได้จากฝั่งญี่ปุ่น และฝั่งชาติตะวันตก

⚠ แจ้งเนื้อหาไม่เหมาะสม 
เป็นกำลังใจให้เจ้าของกระทู้โดยการ VOTE และ SHARE
24 VOTES (4/5 จาก 6 คน)
VOTED: Basili, ไข่เจียวหมูสับ, zerotype, มาเฟียเสื้อดำ, พริ้มพลอย
Hot Topic ที่น่าสนใจอื่นๆ
คนกัมพูชาสงสัย ผู้ชายไทยเค้าไม่ไว้เล็บยาวกันหรอ ชาวเน็ตไทยคลายความสงสัยให้เค สามถุย ขอสาปแช่งคน ดีใจ กับคดี ทักษิณ ติดคุกเพจดังเปิดข้อมูล! ทหาร BHQ ติดคอนเทนต์จนถูกเปิดพิกัดตั้งฐานชาวเน็ตสวดยับ!!! หลังเจ้าของอาบน้ำเต่าด้วยน้ำยาล้างห้องน้ำทึ่งทั่วไทย : เกาะขาม "ไข่มุกมรกตแห่งทะเลตราด" เกาะแสนสวย คู่ทะเลตราดหนุ่มเขมรนัดมีเพศสัมพันธ์กับหญิงสาวไทย ไม่มีเงินให้แลกสอนออกกำลังกายเล่นกล้ามแทนเบิ้ล ปทุมราช ประกาศอยากมีเwศสัมพันธ์แบบถูกกม.เสียทีตะลึงตาแตก! “แมน การิน” โชว์ลุค พส.จีน แฟนคลับทึ่งหนักน้ำตาคลอ!“ถั่วแระ” รับเงินสร้างละครคุณรรรม ยอมรับเคยยืมทิดอลงกต 2 แสนคดี “ทักษิณ” ยังไม่จบ ลุ้นดาบสอง ป.ป.ช.จ่อฟันซ้ำ สนับสนุนเจ้าหน้าที่รัฐ พาออกคุก นอนชั้น 14 รพ.ตำรวจพบระเบิดสมัยสงครามโลกครั้งที่ 2 ในเมืองหลวงของสโลวาเกียอาร์ต พศุตม์ ชืนชมทักษิณ กล้าทำกล้ารับ กล้ากลับมาเข้ากระบวนการตามกฏหมาย
Hot Topic ที่มีผู้ตอบล่าสุด
น้ำตาคลอ!“ถั่วแระ” รับเงินสร้างละครคุณรรรม ยอมรับเคยยืมทิดอลงกต 2 แสนคดี “ทักษิณ” ยังไม่จบ ลุ้นดาบสอง ป.ป.ช.จ่อฟันซ้ำ สนับสนุนเจ้าหน้าที่รัฐ พาออกคุก นอนชั้น 14 รพ.ตำรวจชาวเน็ตสวดยับ!!! หลังเจ้าของอาบน้ำเต่าด้วยน้ำยาล้างห้องน้ำเบิ้ล ปทุมราช ประกาศอยากมีเwศสัมพันธ์แบบถูกกม.เสียทีพบระเบิดสมัยสงครามโลกครั้งที่ 2 ในเมืองหลวงของสโลวาเกีย
กระทู้อื่นๆในบอร์ด เรื่องตลก ขำขัน
รวมภาพเรียกรอยยิ้มประจำวันนี้ 09/09/68 วันที่ท้องฟ้าก็ยังครึ้มๆ พายุยังเข้ามาต่อเนื่องเน่อรวมภาพเรียกรอยยิ้มประจำวันนี้ 08/09/68 วันที่ท้องฟ้ายังครึ้มๆ มีพายุทยอยเข้ามาเรื่อยๆเน่อ ระวังสุขภาพกันด้วยนะเพื่อนๆข้าวผัด หรือว่าการปลูกยอดผัก การตกแต่งที่สวยงามของแม่บ้านเมื่อ Teacher ให้ท่องคำศัพท์ รำไปเลยสิคะ นี่มันคือเทคนิคส่วนตัว ทีเชอร์ต้องอันเดอร์สแตนนะ
ตั้งกระทู้ใหม่