ปัญหาประดิษฐ์หรือเอไอเสี่ยงเท่ากับสงครามนิวเคลียร์ เตือนมนุษย์อาจสูญพันธุ์จากเอไอ

205
0
Share:
ปัญหาประดิษฐ์ หรือ เอไอ เสี่ยงเท่ากับ สงครามนิวเคลียร์ เตือนมนุษย์อาจสูญพันธุ์จากเอไอ

ศูนย์เพื่อความปลอดภัยเอไอหรือเคส (CAIS) ซึ่งเป็นองค์กรไม่แสวงหากำไรเปิดเผยจดหมายเปิดผนึกเกี่ยวกับความเสี่ยงของเทคโนโลยีปัญญาประดิษฐ์ หรือเอไอ ว่า การบรรเทาความเสี่ยงเรื่องมนุษย์จะสูญพันธุ์จากเอไอควรได้รับความสำคัญในระดับโลก ควบคู่ไปกับความเสี่ยงทางสังคมอื่นๆ อย่างโรคระบาดและ สงครามนิวเคลียร์

จดหมายเปิดผนึกฉบับนี้ล้วนมีบุคคลในวงการเทคโนโลยีระดับโลกลงชื่อมากกว่า 350 คน เช่น นายแซม อัลต์แมน ประธานเจ้าหน้าที่บริหารหรือซีอีโอของโอเพนเอไอ (OpenAI) ที่พัฒนาแชทจีพีที (ChatGPT) นายเจฟฟรีย์ ฮินตัน และนายโยชัว เบนจิโอ 2 ใน 3 ของผู้ได้รับฉายาเจ้าพ่อแห่งเอไอ ซีอีโอของไมโครซอฟท์และกูเกิล นักวิชาการจากหลายสถาบันในสหรัฐไปจนถึงจีน เนื้อความในจดหมายระบุว่า

เคสระบุว่า นายยาน เลอกัน เจ้าพ่อเอไอคนที่ 3 ซึ่งทำงานอยู่กับเมตาที่เป็นบริษัทแม่ของเฟซบุ๊กไม่ยอมลงนาม และทางกลุ่มได้ส่งคำเชิญลงนามไปถึงนายอีลอน มัสก์ ซีอีโอทวิตเตอร์แล้ว หวังว่าเขาจะลงนามในสัปดาห์นี้ นายมัสก์และผู้เชี่ยวชาญด้านเอไอหลายคนเป็นกลุ่มแรกๆ ที่เตือนตั้งแต่เดือนเมษายนว่า เอไออาจมีความเสี่ยงต่อสังคม

ความก้าวหน้าในการพัฒนาเอไอเมื่อไม่นานมานี้ทำให้เกิดเครื่องมือใหม่ๆ ที่สามารถนำไปใช้งานตั้งแต่การวินิจฉัยทางการแพทย์ไปจนถึงการเขียนสำนวนทางกฎหมาย ขณะเดียวกันก็จุดกระแสวิตกว่าอาจนำมาซึ่งการละเมิดความเป็นส่วนตัว ส่งเสริมการเผยแพร่ข้อมูลเท็จ และถึงขั้นที่เอไอคิดเองทำเอง ก่อนหน้านี้สถาบันอนาคตแห่งชีวิต (Future of Life Institute) ที่เป็นองค์กรไม่แสวงหากำไรได้ออกจดหมายเปิดผนึกเมื่อ 2 เดือนก่อน เรียกร้องให้หยุดการวิจัยเอไอในระดับที่ล้ำสมัยโดยทันที เนื่องจากมีความเสี่ยงต่อมนุษยชาติ