Thêm một bước đi cần thiết để kiểm soát trí tuệ nhân tạo


Bước đi chủ động hơn

Trong một văn bản dài 20 trang gửi tới OpenAI, Ủy ban Thương mại Liên bang Mỹ (FTC) cho biết họ muốn làm rõ liệu OpenAI có “tham gia vào các hành vi không công bằng hoặc lừa đảo liên quan đến gây hại cho người tiêu dùng, bao gồm cả tổn hại về uy tín hay không”. Cùng với đó, FTC cũng yêu cầu Open AI “mô tả chi tiết các bước đã thực hiện để giải quyết hoặc giảm thiểu rủi ro mà các sản phẩm mô hình ngôn ngữ lớn của công ty có thể tạo ra các tuyên bố sai, gây hiểu lầm hoặc miệt thị các cá nhân”.

ChatGPT là một phần mềm trí tuệ nhân tạo được lập trình để có thể tự trả lời các câu hỏi, giải quyết vấn đề hoặc tạo ra nội dung, thông tin theo yêu cầu của người dùng. Ảnh: Politico

Cuộc điều tra của FTC đánh dấu bước tiến đáng kể của chính phủ Mỹ trong việc kiểm soát trí tuệ nhân tạo, đặc biệt là những ứng dụng AI tạo sinh như ChatGPT, thứ có thể tự sáng tạo ra nội dung/dữ liệu mới dựa trên những nội dung/dữ liệu hiện có.

FTC đang phản ứng nhanh hơn trước sự phát triển của AI so với trước đây. Trong quá khứ, cơ quan này thường chỉ bắt đầu điều tra sau một sai lầm lớn trước công chúng của một công ty, chẳng hạn như họ điều tra các hoạt động bảo mật của Meta, tập đoàn sở hữu Facebook, vào năm 2018 sau khi có cáo buộc rằng mạng xã hội này đã chia sẻ dữ liệu người dùng với công ty tư vấn chính trị Cambridge Analytica. Nhưng nay, FTC đã đưa OpenAI vào tầm ngắm chưa đầy một năm sau khi công ty này cho ra mắt ChatGPT.

Chủ tịch FTC, bà Lina Khan, khi điều trần trước Ủy ban Tư pháp Hạ viện hôm 13/7 cho biết cơ quan này lo ngại rằng ChatGPT và các ứng dụng do AI điều khiển khác không kiểm tra được dữ liệu mà chúng có thể khai thác, đồng thời nói rằng các công ty công nghệ nên được quản lý ngay từ khi các sản phẩm họ tạo ra còn non trẻ, thay vì đợi đến khi chúng trưởng thành.

“ChatGPT và một số dịch vụ khác tương tự đang được cung cấp một kho dữ liệu khổng lồ. Không có kiểm tra nào về loại dữ liệu đang được đưa vào sử dụng từ các công ty này”, bà Khan nói. “Mặc dù những công cụ AI là công nghệ mới, nhưng chúng không được miễn trừ khỏi các quy tắc hiện hành và chúng ta đã có thể thấy một số rủi ro”.

Nhiều nước đã đưa ra các quy định và xây dựng dự luật nhằm kiểm soát việc phát triển AI. Ảnh: TechEconomy

Trên thực tế thì FTC đã nhiều lần cảnh báo rằng họ sẽ sớm có hành động với AI thông qua các tuyên bố, các bài đăng trên blog và các cuộc họp báo. Chẳng hạn như trong phát biểu tại Trường Luật Harvard hồi tháng 4 năm nay, Samuel Levine – Giám đốc Văn phòng bảo vệ người tiêu dùng của FTC – cho biết cơ quan này đã chuẩn bị sẵn sàng để “linh hoạt” đón đầu các mối đe dọa mới nổi.

“FTC hoan nghênh sự đổi mới, nhưng đổi mới không phải là giấy phép cho sự liều lĩnh. Chúng tôi sẵn sàng sử dụng tất cả các công cụ của mình, bao gồm cả việc thực thi quyền lực, để đấu tranh với các hành vi có hại trong lĩnh vực này”, ông Samuel Levine nhấn mạnh.

Các cuộc điều tra sẽ dẫn tới điều gì?

Cuộc điều tra của FTC đặt ra mối đe dọa pháp lý lớn đầu tiên của Mỹ đối với OpenAI, một trong những công ty AI nổi tiếng nhất và báo hiệu rằng công nghệ này có thể ngày càng bị giám sát chặt chẽ khi mọi người, doanh nghiệp và chính phủ sử dụng nhiều sản phẩm do AI cung cấp hơn. Công nghệ đang phát triển nhanh chóng đã gióng lên hồi chuông cảnh báo khi các chatbot có khả năng thay thế con người trong công việc sáng tạo nội dung và lan truyền thông tin sai lệch.

Chủ tịch Ủy ban Thương mại Liên bang Mỹ, bà Lina Khan cho biết: ChatGPT hay các ứng dụng AI khác đều cần sớm được kiểm soát chặt chẽ. Ảnh: New York Times

ChatGPT được điều khiển bởi thứ mà các nhà nghiên cứu AI gọi là mạng lưới thần kinh. Đây là công nghệ tương tự dịch thuật giữa tiếng Pháp và tiếng Anh trên các dịch vụ như Google Dịch và xác định người đi bộ khi ô tô tự lái di chuyển trên đường phố. Một mạng lưới thần kinh học các kỹ năng bằng cách phân tích dữ liệu. Ví dụ, bằng cách xác định các mẫu trong hàng nghìn bức ảnh về mèo, chatbot có thể học cách nhận ra một con mèo.

Các nhà nghiên cứu tại OpenAI đã thiết kế các mạng thần kinh phân tích một lượng vô cùng lớn văn bản kỹ thuật số, bao gồm các bài báo, sách, tin tức và nhật ký trò chuyện trực tuyến trên từ điển bách khoa toàn thư mở Wikipedia. Các hệ thống này, được gọi là mô hình ngôn ngữ lớn, đã học cách tự tạo văn bản nhưng có thể lặp lại thông tin thiếu sót hoặc kết hợp các sự kiện theo cách tạo ra thông tin không chính xác.

OpenAI đã nỗ lực tinh chỉnh ChatGPT và giảm tần suất của tài liệu thiên vị, sai lệch hoặc có hại. Khi nhân viên và những người thử nghiệm khác sử dụng chatbot, công ty yêu cầu họ đánh giá mức độ hữu ích và tính trung thực của các phản hồi. Sau đó, thông qua một kỹ thuật gọi là “học tăng cường”, ChatGPT sẽ sử dụng các xếp hạng này để xác định cẩn thận hơn những gì chatbot sẽ làm và không làm.

Cuộc điều tra mà FTC tiến hành có thể buộc OpenAI tiết lộ các phương pháp xây dựng ChatGPT và nguồn dữ liệu nào công ty này sử dụng. Dù OpenAI từ lâu đã khá cởi mở về những thông tin như vậy, nhưng gần đây họ đã nói rất ít về việc dữ liệu sử dụng cho các hệ thống AI của mình đến từ đâu cũng như chi tiết về các dữ liệu được sử dụng để xây dựng ChatGPT, có thể là do đề phòng đối thủ cạnh tranh sao chép hoặc lo ngại bị vụ kiện khi sử dụng một số tập dữ liệu nhất định.

Vẫn cần phải tăng tốc

Theo các chuyên gia, sẽ phải mất nhiều tháng để FTC hoàn tất cuộc điều tra đối với OpenAI và không rõ dữ liệu thu thập được có dẫn đến hành động nào từ cơ quan quản lý này hay không. Megan Gray, cựu nhân viên Cục Bảo vệ người tiêu dùng của FTC, cho biết khó khăn lớn nhất là ủy ban không có đủ năng lực để kiểm tra đầy đủ các câu trả lời từ OpenAI. “FTC không có nhân viên đủ trình độ kỹ thuật để đánh giá các phản hồi mà họ sẽ nhận được và xem OpenAI có cố gắng che giấu sự thật hay không,” Megan Gray nói.

Google hồi tháng 6 đã phải hoãn ra mắt chatbot Bard tại thị trường EU do chưa đáp ứng quy định bảo mật dữ liệu. Ảnh: The Irish Times

Cuộc điều tra còn phụ thuộc rất nhiều vào các quy định bảo vệ người tiêu dùng hiện có của FTC – vốn thường được sử dụng để bảo vệ người tiêu dùng trước các gian lận hoặc sản phẩm bị lỗi – để thiết lập các biện pháp bảo vệ cho ngành công nghiệp mới đang bùng nổ này.

Nhưng các nhà quan sát cho biết cuộc điều tra vẫn là động thái mang tính bước ngoặt. Luật sư Kathleen Benway, cựu Giám đốc Văn phòng bảo vệ người tiêu dùng của FTC, cho biết: “Cho đến khi FTC điều tra, OpenAI và các công ty tương tự phần lớn được để một mình phát triển AI mà không có sự can thiệp của chính phủ”.

Không có luật liên bang về AI, một số bang đã ban hành các quy tắc về việc sử dụng AI, chẳng hạn như  Massachusetts với lĩnh vực tuyển dụng và bảo hiểm. Trong khi đó, các nhà lập pháp tại Quốc hội đã tổ chức nhiều phiên điều trần về AI, nhưng bất kỳ luật liên bang nào cũng có thể mất vài tháng để thông qua.

Mỹ đã đi sau nhiều nước trong việc soạn thảo luật quản lý AI và điều chỉnh các rủi ro về quyền riêng tư liên quan đến công nghệ này. Chẳng hạn, Liên minh Châu Âu (EU) hồi tháng 5 vừa qua đã thực hiện một bước tiến lớn để kiểm soát ChatGPT và các sản phẩm AI tạo sinh tương tự, khi đưa ra dự luật quản lý AI với hàng trăm điều chỉnh cụ thể nhằm bảo vệ dữ liệu người dùng. Dự luật có thể được Nghị viện châu Âu thông qua vào cuối năm nay.

Bản thân các nước châu Âu cũng sớm có bước đi của riêng mình. Italy hồi tháng 3 vừa qua đã ban hành lệnh cấm ChatGPT khi cho rằng OpenAI thu thập bất hợp pháp dữ liệu cá nhân từ người dùng và không có hệ thống xác minh độ tuổi để ngăn trẻ vị thành niên tiếp xúc với tài liệu này. Lệnh cấm chỉ được tạm dỡ bỏ vào tháng 4 sau khi OpenAI thực hiện những thay đổi mà chính quyền Italia yêu cầu.

Một ví dụ khác là Google hồi tháng 6 đã phải hoãn ra mắt chatbot Bard tại thị trường EU sau khi không cung cấp kịp thời các tài liệu cần thiết tới Ủy ban Bảo vệ dữ liệu Ireland, cơ quan quản lý dữ liệu chính của Google tại các nước châu Âu.

Tại châu Á, hôm 13/7, Cục Quản lý Không gian mạng Trung Quốc (CAC) đã ban hành quy định tạm thời về quản lý AI, trong đó yêu cầu các nhà cung cấp dịch vụ thực hiện nghĩa vụ bảo mật thông tin trực tuyến, bao gồm bảo vệ thông tin cá nhân của người dùng và thực hiện các biện pháp chặn người dùng chưa đủ tuổi tiếp cận những dịch vụ như vậy. Quy định cũng buộc các công ty phát triển AI cũng phải gửi đánh giá an ninh về ứng dụng của mình tới cơ quan quản lý nhà nước trước khi phát hành ra công chúng.

Trước những diễn biến đó, không lạ khi nhiều chuyên gia vẫn kêu gọi giới chức Mỹ khẩn trương hơn. Tháng 3 vừa qua, Trung tâm AI và Chính sách kỹ thuật số (CAIDP) – một tổ chức vận động việc sử dụng công nghệ có đạo đức – đã yêu cầu FTC chặn OpenAI phát hành các phiên bản thương mại mới của ChatGPT khi viện dẫn những lo ngại liên quan đến thông tin sai lệch, thiên vị và bảo mật.

Cách đây một tuần, CAIDP đã cập nhật khiếu nại của mình khi mô tả những cách bổ sung mà chatbot này có thể gây hại cho công chúng, như điều mà người sáng lập OpenAI, Sam Altman cũng đề cập trong cuộc điều trần hồi tháng 5 trước Quốc hội Mỹ. “Bản thân nhà phát triển đã thừa nhận những rủi ro liên quan đến việc phát hành sản phẩm và đã kêu gọi đưa ra quy định. Vì thế, FTC cần phải sớm hành động”, Marc Rotenberg – Chủ tịch CAIDP nhấn mạnh.



Source link