Sự phát triển trí tuệ nhân tạo (AI) đang diễn ra với tốc độ chóng mặt, mang đến những tiềm năng to lớn nhưng cũng tiềm ẩn không ít rủi ro. Trước bối cảnh đó, California, một trong những trung tâm công nghệ hàng đầu thế giới, đã chính thức ban hành SB 53, đạo luật về an toàn AI đầu tiên và toàn diện nhất tại Hoa Kỳ. Đạo luật này đánh dấu một bước ngoặt quan trọng trong việc quản lý và định hướng sự phát triển của AI, đặt ra các tiêu chuẩn an toàn nghiêm ngặt cho các nhà phát triển AI lớn, đồng thời nhấn mạnh trách nhiệm của họ trong việc ngăn chặn các rủi ro thảm khốc. Đây là một động thái cho thấy sự chủ động của các nhà lập pháp trong việc cân bằng giữa đổi mới công nghệ và bảo vệ xã hội khỏi những mặt trái tiềm ẩn của AI.
Các yêu cầu cốt lõi của luật an toàn AI California
Đạo luật SB 53 yêu cầu các nhà phát triển AI lớn phải tuân thủ các quy trình an toàn nghiêm ngặt và báo cáo về các hoạt động của mình. Trọng tâm của luật là ngăn chặn các rủi ro thảm khốc, bao gồm các cuộc tấn công mạng vào cơ sở hạ tầng quan trọng hoặc việc tạo ra vũ khí sinh học. Cơ quan Sở Dịch vụ Khẩn cấp California (California Office of Emergency Services) sẽ chịu trách nhiệm thực thi các quy định này.
Nhiều yêu cầu trong SB 53, như kiểm toán bảo mật và công bố “thẻ mô hình” (model cards), thực tế đã là thông lệ tại các công ty AI lớn. Tuy nhiên, áp lực từ ngành công nghiệp có thể khiến một số công ty hạ thấp tiêu chuẩn an toàn của họ. Ví dụ, xAI gần đây đã đối mặt với chỉ trích vì không công bố các bài kiểm tra bảo mật của riêng mình. Điều này cho thấy sự cần thiết của một khuôn khổ pháp lý rõ ràng để đảm bảo mọi người chơi đều tuân thủ các tiêu chuẩn chung.
Phản ứng của ngành công nghệ và những thách thức phía trước
Mặc dù SB 53 nhận được sự ủng hộ công khai từ Anthropic và ít gặp phải sự phản kháng hơn so với dự thảo tiền nhiệm (SB 1047), khu vực công nghệ vẫn tỏ ra dè dặt. Luận điểm chính được đưa ra là các quy định của chính phủ có thể cản trở sự đổi mới của Hoa Kỳ, đặc biệt trong bối cảnh cạnh tranh với Trung Quốc.
Các công ty lớn như Meta và OpenAI, cùng với các quỹ đầu tư mạo hiểm như Andreessen Horowitz, đã đầu tư hàng triệu đô la vào các Super PAC để ủng hộ các chính trị gia ủng hộ AI và phản đối các quy định cấp tiểu bang. Những nỗ lực trước đây nhằm ngăn chặn các luật cấp tiểu bang, bao gồm cả đề xuất cấm AI trong mười năm, đều đã thất bại.
Hiện tại, Thượng nghị sĩ Ted Cruz đang thúc đẩy Đạo luật SANDBOX (SANDBOX Act), cho phép các công ty được miễn trừ một số quy định nhất định trong tối đa mười năm. Bên cạnh đó, cũng có một làn sóng vận động cho tiêu chuẩn AI quốc gia có thể ghi đè lên luật pháp của các tiểu bang. Những động thái này cho thấy cuộc thảo luận về cách quản lý AI vẫn còn rất sôi nổi và phức tạp.