ความขัดแย้งยังไม่จบ!! ปัญหาคือ AI Invigilator ใครจะรับงานนี้ไปทำ

AI Invigilator เรื่องยุง่ของปัญญาประดิษฐ์ ที่ยังหาจุดจบไม่ได้แถมยังเจอปัญหาที่ว่าใครจะทำหน้าที่ควบคุมในความเก่งของมัน
Share

 

นอกจากสิ่งที่ผู้ใช้งานต้องกลัวในเรื่องของ เที่ยงตรง ไม่สร้างเรื่องโกหกมากเกินไปของ AI ปัญญาประดิษฐ์แสนรู้ทั้งหลายแล้ว ปัญหานี้ยังย้อนกลับมาทำเรื่องงปวดหัวให้กับบรรดานักบุกเบิกเทคโนโลยีนี้ในเรื่องที่ว่า “ใครจะทำหน้าที่ควบคุมพลัง” ให้ทำงานอย่างถูกที่ถูกทาง

 

ในเดือนพฤษภาคม ผู้บริหารบริษัท AI สามแห่งที่มีชื่อเสียงอย่าง OpenAI, Google DeepMind, และ Anthropic ได้ลงนามในแถลงการณ์ที่เตือนว่า AI อาจเป็นอันตรายต่อมนุษยชาติเท่ากับการระบาดของโรคระบาดและสงครามนิวเคลียร์ และเพื่อป้องกันปัญหานี้ในภายภคหน้าหลายบริษัทและทีมนักวิจัยด้าน AI หลายรายกำลังหากฎเกณฑ์ที่ว่า ใครจะสามารถเข้าถึงรวมถึงการเริ่มพัฒนาความสามารถใหม่ๆ เพิ่มเข้าไป

เพราะเริ่มมีความกังวลว่าต่อไปจะมีการนำเอา Generative AI หรือใดๆ ที่เกิดหลังจากนี้ไปใช้เพื่อสร้างข้อมูลที่เป็นเท็จหรือชักจูงให้ไกลจากความจริง อย่างเช่นข้อมูลที่ชักจูงใจของผู้มีสิทธิเลือกตั้งเปลี่ยนมาลงคะแนนให้อีกฝ่ายอย่างที่เคยพบในการเลือกตั้งของสหรัฐอเมริกา ที่ทำให้ โดนัลด์ ทรัมป์ ชนะ ฮิลลารี่ คลินตัน ในปี 2020 แต่มีความกลัวว่าอีกไม่นาน AI ที่มีพลังมากกว่านี้จะไปอยู่เบื้องหลังหรือช่วยในการโจมตีทางไซเบอร์หรือสร้างอาวุธชีวภาพได้

 

AI Invigilator เจ้าใหญ่ๆ ออกโรงตอนความเก่ง แต่ยังมีคนขวาง

เรื่องของความกลัวว่า AI รุ่นใหม่ๆ นั้นจะเก่งเกินความควบคุมใช่ว่าจะมีความเห็นที่เหมือนกันเสียหมด หลังจากยักษ์ใหญ่ทั้ง 3 ประกาศว่าจะต้องควบคุมเทคโนโลยีนี้ไว้ก่อน ในทางกลับกัน Meta ได้ทำการปล่อย Code Liama อัพเดตล่าสุดของ Generative AI บนแพลตฟอร์ม Llama 2 ที่เพิ่มเติมความสามารถด้านงานช่วยเขียนโค้ดและชุดคำสั่งต่างๆ

Code Liama ถือว่าเป็นเวอร์ชันที่ทำงานได้ดีที่สุดมีประสิทธิภาพสูงที่สุดตามกฎเกณฑ์ที่กำหนดไว้ มีประสิทธิภาพใกล้เคียงกับ GPT-4 ปัญญาประดิษฐ์รุ่นล่าสุดของ OpenAI ซึ่งปัจจุบัน Meta นั้นเปิดให้สามารถดาวน์โหลดและใช้งานในทางการและวิจัยได้ฟรี ต่างจาก OpenAI และ Anthropic เปิดให้ธุรกิจและนักพัฒนาใช้งานจำกัดและต้องเสียค่าใช้จ่ายในการเข้าถึง Generative AI โดยบอกว่าเป็นวิธีป้องกันไม่ให้ถูกนำมาใช้ในทางที่ไม่เหมาะสม

เป็นเดือนมิถุนายน Richard Blumenthal และ Josh Hawley สมาชิกรัฐสภาสหรัฐและ ประธานคณะกรรมการความเป็นส่วนตัวเทคโนโลยี และกฎหมาย ได้เขียนจดหมายถึง Mark Zuckerberg ระบุว่า “Meta ดูเหมือนจะไม่ได้พิจารณาผลกระทบทางจริยธรรมของการเปิดเผยข้อมูลสาธารณะของตนเอง” และขอข้อมูลเกี่ยวกับการรั่วไหลและถามว่า Meta จะเปลี่ยนวิธีการเปิดเผยรุ่น AI ในอนาคตหรือไม่

เดือนต่อมา Meta ได้ตอบโต้ด้วยการปล่อย Llama 2 Generative AI รุ่นพัฒนาของบริษัทออกมา โดยไม่มีการจำกัดการเข้าถึงอย่างใด ๆ ทำให้ใครก็สามารถดาวน์โหลดรุ่นได้

 

ความขัดแย้งเริ่มก่อวงกว้าง

การโต้แย้งระหว่าง Meta และนักการเมืองของสหรัฐเป็นเพียงเรื่องเริ่มต้นของการโต้แย้งเกี่ยวกับใครควรควบคุมการเข้าถึง AI ซึ่งมีผลกระทบมากมาย ในฝ่ายหนึ่ง บริษัท AI ชื่อดังและสมาชิกในชุมชนด้านความมั่นคงแห่งชาติ กังวลเรื่องความเสี่ยงในอนาคตที่ AI จะกลายเป็นเบื้องหลังของปัญหา โดยมีแรงจูงใจเชิงการค้าและตัวเงินที่เป็นปัจจัย

ปัจจุบันมีความพยายามในการกำหนดกฎเกณฑ์ในเรื่องของการสร้างและเข้าถึงการใช้งาน Generative AI ที่เก่งมากขึ้นเรื่อยๆ โดยมีความกังวลว่าผู้ไม่ประสงค์ดีจะนำไปใช้ในการก่ออาชญากรรมรูปแบบต่างๆ ในอนาคต

ในรายงานเรื่อง Frontier Model Regulation ซึ่งตีพิมพ์ในเดือนกรกฎาคมบนเว็บไซต์ของ OpenAI กลุ่มนักวิชาการและนักวิจัยจากบริษัทต่างๆ รวมถึง OpenAI, Google และ DeepMind ได้วางแนวทางหลายประการที่ผู้กำหนดนโยบายสามารถบรรลุเป้าหมายนี้ได้ การแทรกแซงสองประเภทแรกที่อธิบายไว้ ได้แก่ การพัฒนามาตรฐานความปลอดภัยและการรับรองว่าหน่วยงานกำกับดูแลมีทัศนวิสัยที่เพียงพอ

และเนื้อหาในรายงานนี้ยังมีข้อแนะนำสำหรับหน่วยงานกำกับดูแล ในการตรวจสอบให้แน่ใจว่าบริษัทที่พัฒนา AI แต่ละแห่งนั้นจะปฏิบัติตามมาตรฐานความปลอดภัยและข้อกำหนดต่างๆ อย่างแรกคือกำหนดให้นักพัฒนา AI ต้องได้รับใบอนุญาตก่อนการฝึกอบรมและปรับใช้โมเดลที่ทรงพลังที่สุดที่เรียกว่า Frontier Model

Sam Altman ประธานเจ้าหน้าที่บริหารของ OpenAI เสนอระบบการออกใบอนุญาตในการพิจารณาของคณะกรรมการวุฒิสภาเมื่อเดือนพฤษภาคม นักวิจารณ์หลายคนไม่เห็นด้วยโดยแย้งว่าการออกใบอนุญาตอาจเพิ่มภาระและเป็นอันตรายต่อการพัฒนานวัตกรรม

อย่างไรก็ตาม แม้แต่ในบรรดาบริษัท AI ที่มีความกังวลเกี่ยวกับความเสี่ยงร้ายแรงจากระบบ AI อันทรงพลัง การสนับสนุนการออกใบอนุญาตก็ไม่ได้เป็นเอกฉันท์ Anthropic ซึ่งคุ้นเคยกับการพิจารณาเกี่ยวกับรายงานวิจัยในห้องปฏิบัติการต่างๆ เพราะว่ายังเร็วเกินไป Jack Clark หนึ่งในผู้ร่วมก่อตั้ง Anthropic เคยกล่าวไว้ก่อนหน้านี้ว่าการออกใบอนุญาตจะเป็น “นโยบายที่ไม่ดี”

 

เปลี่ยนรูปแบบเป็น Open Source ดีไหม

ใน Blog ของ Meta ที่ออกมาพร้อมกับการเปิดตัว Liama 2 นั้นมีการอธิบายว่าพวกเขาชอบในแนวคิดของระบบ Open Source เพราะว่ามันส่งเสริมการสร้างสรรค์นวัตกรรมมากกว่า และแนวทางนี้มีความปลอดภัยมากกว่าเพราะจะมีนักพัฒนารวมถึงนักวิจัยจำนวนมาก ในฐานะของกลุ่มคนที่จะเข้ามาทดสอบ ชี้และแก้ปัญหาที่มีในระบบได้อย่างรวดเร็ว

แต่ทางนักวิจัยด้านความปลอดภัยกลับบอกว่า แม้ว่าการเปิดเผยข้อมูลดูเหมือนจะเป็นประโยชน์ต่อการป้องกันทางไซเบอร์มากกว่าการนำไปทำความผิดทางไซเบอร์แต่ในความเป็นจริงอาจไม่เป็นเช่นนั้น

นอกจากนั้นจากผลการวิจัยกลับพบว่า Meta เองไม่ได้เปิดให้มีการทดลองในโมเดล AI รุ่นใหม่อย่างสมบูรณ์ ด้วยการนำไปใช้ในเชิงการค้ารวมถึงตัวบริษัทเองก็ได้รับประโยชน์จากการเปิดให้ชุมชนนักพัฒนาแบบ Open Source นั้นเข้ามาทดสอบและแก้ไขชุดคำสั่งของระบบให้ทำงานดีขึ้น

Meta เป็นหนึ่งในบริษัทที่พัฒนา AI ที่โดดเด่นเพียงรายเดียวที่สนับสนุนแนวทาง Open Source เต็มที่ แต่สำหรับกลุ่มนักพัฒนาที่มีทรัพยากรน้อยจำนวนมากยังต้องการรักษาการเข้าถึงระบบ AI แบบเปิดไว้ด้วย เพราะความกังวลมากขึ้นเกี่ยวกับการขาดความโปร่งใสและความรับผิดชอบที่บริษัทพัฒนา AI เผชิญอยู่ในปัจจุบัน

 

AI Invigilator การถกเถียงเรื่องนี้ยังอีกนาน

ปัจจุบันสภาพยุโรปเองอยู่ระหว่างการออกกฎหมายควบคุม AI ที่กำหนดให้นักพัฒนาสร้าง  “แบบจำลองพื้นฐาน” ที่ทำงานได้หลากหลาย เช่น Llama 2 และ GPT-4 เพื่อสร้างความมั่นใจในตัวระบบว่าจะสอดคล้องและรองรับกับมาตรฐานความปลอดภัยที่หลากหลายเช่นเดียวกัน

แต่กฎหมายฉบับนี้ยังไม่มีการกำหนดในเรื่องของ ใบอนุญาต แต่อาจจะมีบางประเด็นที่ขัดแย้งกับเรื่องของ Open Source อยู่บ้าง Nicolas Moës ผู้อำนวยการฝ่ายกำกับดูแล AI ของยุโรปที่ Future Society กล่าว ต่างจากคำจำกัดความของส่วนใหญ่ในสหรัฐอเมริกา โดยที่คำจำกัดความจะนำไปใช้กับโมเดล AI ทั่วไปทั้งหมดไม่ใช่เฉพาะเจาะจง

ซึ่งด้วยวิธีนี้ บริษัทขนาดใหญ่อย่าง Meta จะสามารถปฏิบัติตามมาตรฐานความปลอดภัยได้อย่างง่ายดาย และสร้างผลกระทบต่อนักพัฒนาแบบ Open Source รายเล็กๆ ทำงานได้ด้วยต้นทุนที่ลดลง โดยสามารถศึกษาข้อกำหนดของ EU จากบทความรวมถึงคำแนะนำของ Hugging Face และ Eleuther AI เพื่อเข้าใจข้อกำหนดต่างๆให้มากขึ้น

 

หลังจากนี้ต่อไป คงได้เห็นกรอบและข้อกำหนดต่างๆ ที่เกี่ยวข้องกับ AI มากขึ้น เพราะนอกจาก Generative AI ที่มนุษย์ชาติได้เห็นพลังของมันแล้ว สิ่งที่น่ากลัวที่สุดก็คือ ข้อมูล ที่จะถูกสร้างขึ้นในวันข้างหน้า เพราะปกติข้อมูลทุกวันนี้ก็ยากจะพิสูจน์อยู่แล้ว ยิ่งถ้าวันที่ AI รู้จักหลอกมนุษย์ขึ้นมาจริงๆ คงวุ่นวายกว่าเดิมน่าดู

 

สำหรับท่านผู้อ่านที่ติดตาม ข่าวสาร และ บทความ ที่เกี่ยวข้องกับนวัตกรรมใหม่ๆ สามารถติดตามอ่านได้ ที่นี่

Related Articles