สหภาพยุโรป (EU) ได้ให้ความสําคัญกับการนําปัญญาประดิษฐ์ (Artificial intelligence – AI) มาใช้ในการเพิ่มขีดความสามารถในการแข่งขันของประเทศตลอดจนเพื่อแก้ไขปัญหาสําคัญต่าง ๆ เช่น การใช้ AI ในโรงงานอุตสาหกรรม โรงพยาบาล และการใช้โดรนในงานภาคการเกษตร เป็นต้น โดยในปี 2563 EU ได้เพิ่มงบประมาณสนับสนุนการวิจัยและพัฒนาเทคโนโลยีด้าน AI & Robotics ขึ้นเป็น 1,500 ล้านยูโร จาก 500 ล้านยูโร เมื่อปี 2560 อย่างไรก็ตาม AI ก็ได้สร้างประเด็นท้าทายใหม่ขึ้นหลายประการ ทั้งในด้านจริยธรรม มาตรฐานความปลอดภัย และการคุ้มครองข้อมูลส่วนบุคคล ดังนั้น EU จึงให้ความสําคัญอย่างมากกับการพัฒนา AI ควบคู่ไปกับการสร้างกรอบกฎหมายที่เหมาะสมเพื่อควบคุมการทำงานของ AI ด้วย
[su_spacer]
[su_spacer]
EU ได้เล็งเห็นความสำคัญของการกำกับทิศทางของเทคโนโลยี AI จึงได้ดำเนินการอย่างเป็นรูปธรรม โดยได้วางกลยุทธ์ด้าน AI ไว้ 3 ด้าน ในเอกสาร “AI Strategy” เมื่อวันที่ 25 เมษายน 2561 ได้แก่ (1) การเพิ่มขีดความสามารถด้านเทคโนโลยีและอุตสาหกรรมของสหภาพยุโรป (2) การเตรียมความพร้อมเพื่อรองรับการเปลี่ยนแปลงจาก AI ทั้งทางด้านเศรษฐกิจและสังคม และ (3) การจัดทํากรอบจริยธรรมและกฎหมายที่เหมาะสมสําหรับ AI นอกจากนี้ EU ยังได้เผยแพร่เอกสาร “Ethics Guidelines for Trustworthy AI” เพื่อเป็นแนวทางในการส่งเสริมให้ภูมิภาคยุโรปมีการพัฒนา AI ให้มีความก้าวหน้า มีจริยธรรม และความปลอดภัย โดยการสร้าง “AI ที่เชื่อถือได้” (Trustworthy AI)
[su_spacer]
เมื่อวันที่ 19 กุมภาพันธ์ 2563 คณะกรรมาธิการยุโรปได้เผยแพร่เอกสาร “White Paper on Artificial Intelligence – A European Approach to Excellence and Trust” ซึ่งเป็นข้อเสนอเกี่ยวกับการดําเนินการของ EU ในด้าน AI โดยมีสาระสําคัญ คือ การส่งเสริมการพัฒนา AI และการสร้างความเชื่อมั่นของสาธารณะต่อ AI โดยคณะกรรมาธิการยุโรปได้เสนอให้ EU ตั้งเป้าดึงดูดการลงทุนด้าน AI มูลค่ารวม 2 หมื่นล้านยูโร ในช่วง 10 ปีข้างหน้า รวมทั้งส่งเสริมการจัดตั้งศูนย์ความเป็นเลิศและศูนย์การทดสอบ AI โดยเน้นการพัฒนา AI ในด้านสาธารณสุข การปกครองส่วนท้องถิ่น และการบริการภาครัฐ
[su_spacer]
นอกจากนี้ เอกสาร “White paper” ยังได้จัดทําข้อเสนอเชิงนโยบายเพื่อนําไปสู่การจัดทํากฎหมายใหม่ในเรื่อง AI โดยมีเนื้อหาครอบคลุมหลายประเด็น ไม่ว่าจะเป็นการคุ้มครองสิทธิขั้นพื้นฐานของประชาชน (Fundamental rights) กฎหมายเกี่ยวกับความรับผิด (Liability) กฎหมายเกี่ยวกับการเคารพการรักษาความเป็นส่วนตัว (Privacy and data protection) และยังได้เสนอหลักเกณฑ์และแนวทางปฏิบัติเกี่ยวกับการพัฒนาเทคโนโลยี AI ที่มีความเสี่ยงสูง (High-risk AI applications) ดังนี้
[su_spacer]
- ข้อมูลสําหรับการฝึก (Training data) ในกระบวนการฝึก AI นั้น จะต้องมีการป้อนข้อมูลจํานวนมาก โดยผู้สร้าง AI จะต้องคํานึงว่า AI ที่พัฒนาขึ้นมาจะปลอดภัยสําหรับผู้ใช้ในอนาคต ไม่มีพฤติกรรมที่เลือกปฏิบัติตามเพศหรือเชื้อชาติ และเคารพกฎหมายเกี่ยวกับการรักษาความเป็นส่วนตัวและการคุ้มครองข้อมูลส่วนบุคคล
- การเก็บรักษาข้อมูล (Data and record-keeping) ระบบ AI ต้องมีความโปร่งใสและมีกลไกส่งเสริมการตรวจสอบและความรับผิดชอบระหว่างผู้ที่มีส่วนเกี่ยวข้องได้ตลอดทั้งกระบวนการ ตั้งแต่ขั้นตอนการพัฒนาตลอดจนการนํามาใช้ และต้องมีการจัดเก็บข้อมูลอย่างเป็นระบบ
- การให้ข้อมูลแก่สาธารณะ (Information to be provided) ผู้ใช้งาน AI สามารถตรวจสอบข้อมูลที่จําเป็นเกี่ยวกับประสิทธิภาพของการใช้งาน ตลอดจนข้อจํากัดต่าง ๆ ของ AI นั้น ๆ และจะต้องมีการประชาสัมพันธ์ข้อมูลแก่ประชาชนทั่วไปเกี่ยวกับปฏิสัมพันธ์ที่อาจเกิดขึ้นได้กับระบบ AI
- ความถูกต้อง (Robustness and accuracy) ระบบ AI ต้องได้รับการพัฒนาให้มีความสามารถในการป้องกันความเสี่ยงและจํากัดผลกระทบจากความผิดพลาดที่อยู่นอกเหนือความคาดหมาย เช่น มีความมั่นคงปลอดภัย มีมาตรการรองรับกรณีเกิดเหตุฉุกเฉิน
- การควบคุมดูแลโดยมนุษย์ (Human Oversight) ซึ่งอาจกระทําได้หลายรูปแบบ เช่น ให้มนุษย์ตรวจสอบผลงานของระบบ AI ก่อนนํามาใช้เพื่อให้มนุษย์ติดตามและตรวจสอบการทํางานของ AI และสามารถควบคุมระบบได้ทันทีหากเกิดปัญหาขึ้น
[su_spacer]
โดยกฎหมายที่ตราขึ้นใหม่นั้นจะมีผลบังคับใช้กับเทคโนโลยี High-risk AI applications เท่านั้น เนื่องจาก EU เห็นว่ากฎหมายที่มีผลบังคับใช้ในปัจจุบันเพียงพอสําหรับการควบคุมเทคโนโลยี AI ที่มีความเสี่ยงต่ำ ซึ่งการพิจารณาว่าเทคโนโลยี AI ใดเข้าข่ายกลุ่มเสี่ยงสูงนั้น ให้พิจารณาจากปัจจัย 2 ประการ คือ พิจารณาจาก (1) สาขาอุตสาหกรรมที่มีความอ่อนไหว เช่น ด้านการแพทย์ การขนส่ง พลังงาน และกิจการภาครัฐที่สําคัญ และ (2) ระดับของผลกระทบที่อาจเกิดขึ้น เช่น ความรุนแรงของผลกระทบต่อสิทธิของบุคคลหรือบริษัท ความเสี่ยงต่อการบาดเจ็บหรือเสียชีวิต เป็นต้น
[su_spacer]
นอกจากนี้ เอกสาร White Paper ยังระบุให้เทคโนโลยี AI ที่เกี่ยวกับการจดจำใบหน้า (Biometric & Face Recognition) ว่าเป็นเทคโนโลยี AI ที่อยู่ในกลุ่มเสี่ยงสูงโดยอัตโนมัติ อีกทั้ง กฎหมายที่คุ้มครองข้อมูลส่วนบุคคลของ EU ที่มีผลใช้บังคับแล้ว ก็ยังกําหนดให้การใช้เทคโนโลยีการจดจําใบหน้าสามารถกระทําได้ก็ต่อเมื่อเป็นการใช้ที่สมเหตุสมผล ได้สัดส่วน และมีกฎระเบียบคุ้มครองที่เหมาะสมเท่านั้น ซึ่งคณะกรรมาธิการยุโรปกําลังจัดทําข้อเสนอเกี่ยวกับหลักเกณฑ์สําหรับการใช้เทคโนโลยีการจดจําใบหน้าโดยเฉพาะด้วยเช่นกัน
[su_spacer]
การที่ EU ได้ทำข้อเสนอเกี่ยวกับการดําเนินการด้าน AI นั้น ถือเป็นการสร้างความเชื่อมั่นของผู้บริโภคต่อเทคโนโลยี AI อีกทั้งยังเป็นการสร้างประสิทธิภาพและเสถียรภาพในระบบกฎหมายภายใน EU (Legal certainty) ฉะนั้น การตรากฎหมายเพื่อกำกับและควบคุมเทคโนโลยี AI ของ EU อาจเป็นต้นแบบสำคัญที่จะนำไปสู่การกำหนดกรอบการพัฒนาเทคโนโลยี AI ของนานาประเทศ เนื่องจากยังไม่มีประเทศใดมีกรอบกฎหมายเกี่ยวกับ AI ที่เข้มงวดและชัดเจน ในขณะเดียวกัน หากไทยต้องการรณรงค์ให้ทั้งภาครัฐและเอกชนหันมาใช้เทคโนโลยี AI เพื่อใช้เป็นอีกหนึ่งกลไกในการขับเคลื่อนเศรษฐกิจ ให้สอดคล้องกับการคาดการณ์ รายงานวิจัย เชิงสถิติของ PwC ในปี 2560 ว่ามูลค่าทางเศรษฐกิจที่เกิดจาก AI จะสูงถึง 15.7 ล้านล้านดอลลาร์สหรัฐ ภายในปี 2573 และทำให้มูลค่า GDP ทั่วโลกเพิ่มขึ้น 26% นั้น ทุกภาคส่วนต้องร่วมกันผลักดันให้มีการจัดทำข้อเสนอเพื่อการพัฒนาด้าน AI ที่สามารถสร้างความเชื่อมั่นให้กับทั้งผู้บริโภคและหน่วยงานต่าง ๆ ที่เกี่ยวข้อง
[su_spacer]
ที่มารูปภาพ: https://www.fxrobox.com/2019/06/eu-ai.html
ที่มาข้อมูล: https://www.bangkokbiznews.com/blog/detail/649579
[su_spacer]
โดยศูนย์ธุรกิจสัมพันธ์
กรมเศรษฐกิจระหว่างประเทศ กระทรวงการต่างประเทศ
สถานเอกอัครราชทูต ณ กรุงบรัสเซลส์