-
ปัญหาประดิษฐ์หรือเอไอเสี่ยงเท่ากับสงครามนิวเคลียร์ เตือนมนุษย์อาจสูญพันธุ์จากเอไอ
ศูนย์เพื่อความปลอดภัยเอไอหรือเคส (CAIS) ซึ่งเป็นองค์กรไม่แสวงหากำไรเปิดเผยจดหมายเปิดผนึกเกี่ยวกับความเสี่ยงของเทคโนโลยีปัญญาประดิษฐ์ หรือเอไอ ว่า การบรรเทาความเสี่ยงเรื่องมนุษย์จะสูญพันธุ์จากเอไอควรได้รับความสำคัญในระดับโลก ควบคู่ไปกับความเสี่ยงทางสังคมอื่นๆ อย่างโรคระบาดและ สงครามนิวเคลียร์ จดหมายเปิดผนึกฉบับนี้ล้วนมีบุคคลในวงการเทคโนโลยีระดับโลกลงชื่อมากกว่า 350 คน เช่น นายแซม อัลต์แมน ประธานเจ้าหน้าที่บริหารหรือซีอีโอของโอเพนเอไอ (OpenAI) ที่พัฒนาแชทจีพีที (ChatGPT) นายเจฟฟรีย์ ...