ระวัง! บทความจอมปลอมกำลังทำลายอนาคต

ศาสตร์เกษตรดินปุ๋ย : ขอบคุณแหล่งข้อมูล : หนังสือพิมพ์โพสต์ทูเดย์

https://www.posttoday.com/world/585557

  • วันที่ 06 เม.ย. 2562 เวลา 09:00 น.

ระวัง! บทความจอมปลอมกำลังทำลายอนาคต

ในอนาคต AI อาจถูกพัฒนาขึ้นมาเพื่อทำสงครามข้อมูลข่าวสารก็เป็นได้

เมื่อวันจันทร์ที่ผ่านมา รัฐบาลสิงคโปร์ขยับทัพรับมือกับข่าวลือที่แพร่ระบาดสร้างความเสียหายไปทั่วโลก ด้วยการออกกฎหมายกวาดล้างข่าวปลอมและการบิดเบือนข้อมูลข่าวสารในโลกออนไลน์ ห้ามไม่ให้มีการเผยแพร่ข้อมูลอันเป็นเท็จ รวมถึงข้อมูลที่จะเป็นผลร้ายต่อความมั่นคงของประเทศ ความปลอดภัย ความสงบเรียบร้อยของสาธารณชน หรือสัมพันธ์อันดีระหว่างสิงคโปร์กับประเทศอื่น

หากฝ่าฝืนต้องระวางโทษปรับไม่เกิน 50,000 เหรียญสิงคโปร์ หรือ 1,174,030 บาท และ/หรือจำคุกไม่เกิน 5 ปี หากข่าวปลอมนั้นถูกโพสต์โดยบัญชีผู้ใช้ที่ปลอมขึ้นมาหรือควบคุมโดยบอต (โปรแกรมอัตโนมัติ) โทษปรับและจำคุกจะเพิ่มเป็น 2 เท่า หรือหากเป็นบริษัท เช่น เฟซบุ๊ค ปล่อยข่าวปลอม โทษปรับจะสูงถึง 1 ล้านเหรียญ หรือ 23,480,607 บาท นับว่าค่อนข้างสูงทีเดียว

ภาพ : JACK GUEZ / AFP

แต่ในยุคที่ข่าวปลอมระบาดไปทั่ว จนไม่รู้ว่าอะไรจริง อะไรไม่จริงกันแล้ว ยังมีนักวิทยาศาสตร์กลุ่มหนึ่งพบว่า แม้แต่ในวงการที่น่าจะยึดโยงกับข้อเท็จจริงมากที่สุดก็ยังผลิตชุดข้อมูลที่เหลวไหลไร้สาระที่สุดออกมาได้ ผ่านทางขบวนการตีพิมพ์บทความทางวิชาการในวารสารต่างๆ ซึ่งถือเป็นช่องทางยกระดับตัวเองของนักวิชาการ แต่ในด้านหนึ่งยังเป็นแหล่งเงินแหล่งทองของคนจำพวกหนึ่งด้วย

เช่น กรณีที่เว็บไซต์ Motherboard รายงานเรื่องราวของ คริส ซัมเนอร์ ผู้ก่อตั้งองค์การ Online Privacy Foundation ที่ไปร่วมงานประชุมวิชาการกับองค์กรชื่อ WASET ซึ่งดูเผินๆ เหมือนจะเป็นองค์กรที่คร่ำหวอดในวงการวิทยาศาสตร์ เพราะจัดงานประชุมหลายพันงาน และมีบทความหลายหมื่นชิ้นด้านวิทยาศาสตร์เผยแพร่ทางแพลตฟอร์มสาธารณะ แต่หลังจาก ซัมเนอร์ ไปประชุมกับ WASET ถึงได้ตาสว่างว่าองค์กรนี้มันคือพวกมิจฉาชีพดีๆ นี่เอง โดยใช้วิทยาศาสตร์บังหน้า สร้างผลงานวิชาการเก๊ๆ ขึ้นมาเพื่อรีดไถ

ซัมเนอร์ คิดที่จะแก้เผ็ดและฉีกหน้ากากขบวนการจอมปลอมเหล่านี้ จึงทำการเขียนบทความชื่อ “Highly-Available, Collaborative, Trainable Communication-a policy neutral approach,” ด้วยคำศัพท์เฉพาะที่ดูเลิศหรู แต่จริงๆ แล้วมันอ่านไม่รู้เรื่องเลย เพราะเขียนขึ้นด้วยซอฟท์แวร์ที่พัฒนาโดยนักศึกษาสถาบัน MIT เพื่อให้อัลกอริทึ่มเขียนบทความวิทยาศาสตร์ แต่เป็นงานที่มั่วๆ ซึ่งดูเหมือนจะลึกซึ้งเพราะใช้ศัพท์แสงพิสดาร ปรากฏว่าบทความนี้ได้รับการตีพิมพ์เฉยเลย

ซัมเนอร์ ทำการสืบทราบมาว่า WASET เก็บค่าตีพิมพ์บทความและการเข้าประชุมวิชาการครั้งละเป็นร้อยเหรียญสหรัฐ โดยหากินกับความจำเป็นของนักวิชาการที่จะต้องเสนองานวิชาการ ในการยกระดับวิทยฐานะทำให้หัวโจกของขบวนการนี้มีเงินเข้ากระเป๋าถึง 4.1 ล้านเหรียญสหรัฐ เฉพาะปี 2017

ลองคิดดูเล่นๆ ถ้านักศึกษา MIT สร้างโปรแกรมที่เขียนบทความได้เกือบจะเนียน ถ้ามนุษย์เราไม่ตรวจดูอย่างละเอียด ในอนาคตหากมีคนคิดในทางไม่ดีนำไปใช้ คงจะวุ่นวายพิลึก

นี่ไม่ใช่แค่กรณีเดียว เมื่อเร็วๆ นี้ ฟารุค อาลี ข่าน นักศึกษาปริญญาเอก ที่เมืองไฮเดอราบัด ประเทศอินเดีย เกิดหงุดหงิดกับการที่วงวิชาการไม่ค่อยจะสนใจตรวจงานแย่ๆ ก็เลยเขียนบทความวิชาการขึ้นมาชิ้นหนึ่งชื่อยาวเหยียดว่า Newer Tools to Fight Inter-Galactic Parasites and Their Transmissibility in Zyrgion Simulation (อุปกรณ์ที่ใหม่กว่าในการต่อสู้ปรสิตข้ามจักรวาลและโอกาสในการติดเชื้อในโลกเสมือนจริงซีร์เจียน)

ฟังดูเผินๆ เหมือนจะเป็นบทความที่ลึกซึ้งและซับซ้อน แต่จริงๆ แล้วมันมั่วทั้งเพ เพราะขอยืมศัพท์และไอเดียมาจากการ์ตูนเรื่อง Rick and Morty ถ้าใครอ่านหัวอย่างจริงจังสักหน่อยจะรู้ว่ามันมาจากการ์ตูน

ข่าน ทำเช่นนี้ก็เพื่อจะกระตุ้นให้วงการตระหนักถึงภัยเงียบที่เกิดจากการปล่อยให้ข้อมูลเท็จแพร่หลายในวงการวิทยาศาสตร์ เพราะเขาทนไม่ไหวจริงๆ

แต่ปรากฏว่ามีวารสารทางวิทยาศาสตร์อย่างน้อย 2 ฉบับ ที่ตีพิมพ์บทความเก๊ของ ข่าน แสดงว่าไม่ได้อ่านและตรวจสอบเลย มีบางรายเรียกเงินค่าตีพิมพ์ด้วยซ้ำ มีบางรายเขียนจดหมายต่อว่า ว่าส่งอะไรเหลวไหลมาให้ และมีบางรายพิจารณาจริงจังว่ามีอะไรผิดพลาดหรือไม่

การกระทำของ ข่าน อาจดูเหมือนการเล่นตลก แต่จริงๆ แล้วเป็นเรื่องคอขาดบาดตายมาก เพราะแสดงให้เห็นว่าในยุคที่เทคโนโลยีก้าวไกล ทำให้คนขาดความละเอียดถี่ถ้วนในการตรวจสอบข้อมูล ไม่เว้นแม้แต่กลุ่มคนที่ต้องพึ่งพาข้อเท็จจริงอย่างมาก

หากในอนาคตแม้แต่วารสารด้านวิทยาศาสตร์และเทคโนโลยียังปลอมได้ แล้วเราจะเหลืออนาคตที่เชื่อถือได้ ได้อย่างไร?

อย่างไรก็ตาม ถ้าบทความจะปลอมได้ด้วยการใช้ซอฟท์แวร์ การตรวจสอบข้อมูลเท็จก็สามารถตรวจสอบได้ด้วยซอฟท์แวร์เช่นกัน และเริ่มมีการพัฒนาซอฟท์แวร์เพื่อใช้ตรวจข่าวปลอมกันบ้างแล้ว ตั้งแต่ปีที่แล้วจนถึงต้นปีนี้ แต่เรื่องก็เงียบหายไป ตั้งแต่เฟซบุ๊คสัญญิงสัญญาว่าจะตรวจสอบข่าวกรองให้ถี่ถ้วนขึ้น

ปัญหาก็คือ วารสาร MIT Technology Review เตือนว่า การพัฒนาปัญญาประดิษฐ์ หรือ AI ในการจัดการข่าวปลอม อาจเป็นชนวนของการพัฒนา AI เพื่อทำสงครามข้อมูลข่าวสารได้เหมือนกัน

Leave a comment