Các chuyên gia cảnh báo trí tuệ nhân tạo có thể làm tăng nguy cơ tuyệt chủng


Trong tuyên bố được đưa ra ngày 30/5, các nhà khoa học và công nghệ kêu gọi: “Giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân”.

ai.jpg
Hơn 1.000 nhà nghiên cứu và công nghệ cho rằng công nghệ AI gây ra “những rủi ro sâu sắc cho xã hội và nhân loại”.

Sam Altman, Giám đốc điều hành của OpenAI và Geoffrey Hinton, nhà tâm lý học nhận thức và nhà khoa học máy tính được mệnh danh là “cha đỡ đầu của trí tuệ nhân tạo” nằm trong số hàng trăm nhân vật hàng đầu đã ký vào tuyên bố được đăng trên trang web của Trung tâm An toàn AI.

Những lo lắng về việc các hệ thống AI thông minh hơn con người và ngày càng trở nên khó kiểm soát đang gia tăng cùng với sự phát triển của một thế hệ chatbot AI mới có khả năng cao như ChatGPT.

Điều đó đã khiến các quốc gia trên thế giới gấp rút thực hiện các bước để đưa ra quy định cho những công nghệ đang phát triển, trong đó EU đang đi đầu với Đạo luật AI dự kiến ​​sẽ được phê duyệt vào cuối năm nay.

Dan Hendrycks, Giám đốc điều hành của Trung tâm An toàn AI, cho biết: “Có rất nhiều người từ tất cả các trường đại học hàng đầu trong nhiều lĩnh vực khác nhau quan tâm đến vấn đề này và cho rằng, đây là ưu tiên toàn cầu. Vì vậy, chúng tôi phải kêu gọi mọi người quan tâm sâu sắc về vấn đề này, bởi vì nhiều người đang xem chúng như một câu chuyện phiếm”.

Trước đó, hơn 1.000 nhà nghiên cứu và công nghệ, bao gồm cả Elon Musk, đã ký một lá thư dài kêu gọi tạm dừng phát triển AI trong 6 tháng, với lý do nó gây ra “những rủi ro sâu sắc cho xã hội và nhân loại”.

Dan Hendrycks cho biết, không có lý do gì khiến xã hội không quản lý “những tác hại cấp bách và liên tục” của các sản phẩm AI, đồng thời bắt đầu giải quyết “những thảm họa tiềm ẩn sắp xảy ra”.

Ông so sánh nó với việc các nhà khoa học hạt nhân vào những năm 1930 cảnh báo mọi người hãy cẩn thận, mặc dù “chúng chưa phát triển hoàn toàn quả bom”.

Ông Hendrycks nói: “Không ai nói rằng GPT-4 hoặc ChatGPT hiện tại chưa gây ra những lo ngại như vậy. Chúng tôi đang cố gắng giải quyết những rủi ro này trước khi chúng xảy ra, thay vì cố gắng giải quyết những thảm họa sau khi nó thực sự xảy ra.”

Bức thư cũng được ký bởi các chuyên gia về khoa học hạt nhân, đại dịch và biến đổi khí hậu. Trong số những người ký tên có nhà văn Bill McKibben, người đã gióng lên hồi chuông cảnh báo về sự nóng lên toàn cầu trong cuốn sách The End of Nature từ năm 1989 và cảnh báo về AI từ hai thập kỷ trước trong một cuốn sách khác. “Chúng ta đang hứng chịu hậu quả vì đã không chú ý đến những cảnh báo sớm về biến đổi khí hậu cách đây 35 năm. Vì thế, tôi cảm thấy cần phải thực sự suy nghĩ thấu đáo về vấn đề này trước khi mọi chuyện trở nên quá muộn”, ông nói.



Source link