“Ông tổ của trí tuệ nhân tạo” từ chức tại Google và cảnh báo về nguy cơ phía trước



Geoffrey Hinton là một trong những tiên phong về trí tuệ nhân tạo. Năm 2012, ông cùng hai học trò tại Đại học Toronto đã tạo ra công nghệ trở thành nền tảng cho các hệ thống trí tuệ nhân tạo, mà các công ty công nghệ lớn tin rằng đó là chìa khóa cho tương lai của họ.

Tuy nhiên, vào thứ Hai tuần này, ông chính thức gia nhập vào một hiệp hội ngày càng lớn của các chuyên gia chỉ trích việc các công ty này đang đua nhau tạo ra các sản phẩm dựa trên trí tuệ nhân tạo tạo ra bởi công nghệ trí tuệ nhân tạo phát sinh, công nghệ đang cung cấp sức mạnh cho những trình chatbot phổ biến như ChatGPT.

Ông Hinton nói rằng ông đã từ chức khỏi công việc của mình tại Google, nơi ông đã làm việc hơn 10 năm và trở thành một trong những giọng nói được tôn trọng nhất trong lĩnh vực này, để ông có thể tự do phát biểu về các nguy cơ của trí tuệ nhân tạo. Một phần của ông bây giờ hối tiếc về công việc của cả đời mình.

Ông Hinton đã trở thành một trong những chuyên gia hàng đầu cảnh báo về các nguy cơ của trí tuệ nhân tạo. Ngay cả khi các nhà lãnh đạo của ngành công nghiệp này tin rằng các hệ thống trí tuệ nhân tạo mới có thể quan trọng như việc giới thiệu trình duyệt web vào đầu những năm 1990 và có thể dẫn đến các đột phá trong các lĩnh vực như nghiên cứu thuốc và giáo dục.

Tuy nhiên, những nỗi sợ sẽ luôn ăn sâu vào các chuyên gia công nghệ về việc họ đang phát hành một thứ gì đó nguy hiểm ra đời. Trí tuệ nhân tạo phát sinh đã trở thành một công cụ cho thông tin sai lệnh. Sớm thôi, nó có thể là một nguy cơ đối với công việc. Đâu đó trong tương lai, những người lo lắng nhất công nghệ nhận định, nó có thể là một nguy cơ đối với nhân loại.

Trí tuệ nhân tạo phát sinh có thể trở thành một nguy hiểm cho sự tương tác xã hội, và đang ngày càng ảnh hưởng đến cuộc sống của con người với việc thay thế các công việc thủ công trong nhiều lĩnh vực. Các tác động to lớn của trí tuệ nhân tạo sẽ khiến cho cuộc đua giữa Google và Microsoft không thể ngừng lại. Trong tương lai, trí tuệ nhân tạo phát sinh còn có thể gây ra nguy cơ đối với nhân loại, khi những robot tự động trở thành sự thật.

Những người chuyên gia khác, bao gồm nhiều học trò và đồng nghiệp của Hinton, cho rằng các nguy cơ này là giả thiết. Nhưng bác sĩ Hinton cho rằng cuộc đua giữa Google và Microsoft và các công ty khác sẽ leo thang thành một cuộc đua toàn cầu mà không thể dừng lại mà không có một sự quy định toàn cầu cụ thể.

Tuy nhiên, điều này có thể là không thể, ông nói. Khác với vũ khí hạt nhân, không có cách nào để biết liệu các công ty hoặc quốc gia có đang làm việc trên công nghệ như vậy một cách bí mật. Hy vọng tốt nhất là các nhà khoa học hàng đầu của thế giới hợp tác trong việc kiểm soát công nghệ này, cho đến khi họ có thể kiểm soát nó.

Bác sĩ Hinton nói rằng khi người ta vẫn hỏi ông làm thế nào để ông có thể làm việc với các công nghệ tiềm ẩn nguy hiểm, ông từng trả lời theo lời của Robert Oppenheimer, người dẫn đầu nỗ lực của Mỹ trong việc xây dựng bom nguyên tử, “Khi bạn thấy điều gì đó kỹ thuật thật ngọt ngào, bạn tiến hành ngay”.

Ông không còn nói câu đó nữa.



Source link