OpenAI công bố hướng dẫn đánh giá rủi ro AI

0:00 / 0:00
0:00
(Ngày Nay) - Ngày 18/12, công ty OpenAI, nhà sản xuất nền tảng ChatGPT, đã công bố các hướng dẫn mới nhất để đánh giá những "rủi ro mang tính thảm họa" của trí tuệ nhân tạo (AI) trong các mô hình đang được phát triển.
OpenAI công bố hướng dẫn đánh giá rủi ro AI

Thông báo trên được đưa ra một tháng sau khi hội đồng quản trị công ty sa thải Giám đốc điều hành (CEO) Sam Altman, và thuê ông trở lại vài ngày sau vì nhân viên và nhà đầu tư phản đối.

Theo truyền thông Mỹ, các thành viên hội đồng quản trị của OpenAI chỉ trích ông Altman vì ông ủng hộ sự phát triển nhanh chóng của OpenAI bất chấp những rủi ro có thể xảy ra với công nghệ mà công ty phát triển.

Tháng 10 vừa qua, công ty cho biết một nhóm giám sát và đánh giá sẽ tập trung vào "các mô hình biên giới" hiện đang được phát triển, có khả năng vượt trội so với phần mềm AI tiên tiến nhất. Nhóm sẽ đánh giá từng mô hình mới và xác định mức độ rủi ro từ "thấp" đến mức "quan trọng" gồm 4 cấp. Theo bản hướng dẫn trên, chỉ những mô hình có điểm rủi ro là "trung bình" hoặc thấp hơn có thể được triển khai.

Cấp độ rủi ro đầu tiên liên quan đến an ninh mạng và khả năng thực hiện các cuộc tấn công mạng quy mô lớn của mô hình. Cấp độ thứ hai sẽ đo lường xu hướng của phần mềm trong việc giúp tạo ra hỗn hợp hóa học, sinh vật (chẳng hạn như virus) hoặc vũ khí hạt nhân, có thể gây hại cho con người. Cấp độ thứ 3 liên quan đến sức mạnh thuyết phục của mô hình, chẳng hạn như mức độ nó có thể ảnh hưởng đến hành vi của con người. Cấp độ rủi ro cuối cùng liên quan đến khả năng tự chủ tiềm tàng của mô hình, đặc biệt là liệu mô hình này có thể thoát khỏi sự kiểm soát của các lập trình viên đã tạo ra nó hay không.

Sau khi xác định được mức độ rủi ro, kết quả sẽ được gửi đến Nhóm Cố vấn An toàn của OpenAI, một cơ quan mới của OpenAI sẽ đưa ra khuyến nghị cho ông Altman hoặc người do ông chỉ định. Sau đó, người đứng đầu OpenAI sẽ quyết định mọi thay đổi cần thực hiện đối với mô hình để giảm thiểu rủi ro liên quan. Hội đồng quản trị sẽ được thông báo đầy đủ và có thể bác bỏ quyết định trên.

Khi nguồn lực xã hội cùng tham gia gìn giữ di sản quốc gia
Khi nguồn lực xã hội cùng tham gia gìn giữ di sản quốc gia
(Ngày Nay) - Bảo vật quốc gia thường được hình dung là các hiện vật quý hiếm được lưu giữ trong những bảo tàng lớn, bảo quản nghiêm ngặt và ít khi xuất hiện trước công chúng. Tuy nhiên, câu chuyện vừa diễn ra tại TP Hồ Chí Minh cho thấy một xu hướng đang ngày càng rõ nét: Nhiều di sản đặc biệt của quốc gia không chỉ được bảo tồn trong các thiết chế công lập, mà được gìn giữ, phát huy từ chính nguồn lực xã hội.
Mỹ có thể kết thúc xung đột Trung Đông bằng "đòn quyết định" vào kho uranium bí ẩn của Iran?
Mỹ có thể kết thúc xung đột Trung Đông bằng "đòn quyết định" vào kho uranium bí ẩn của Iran?
(Ngày Nay) - Một câu hỏi lớn được đặt ra: liệu Washington có thể kết thúc cuộc chiến bằng cách kiểm soát lượng uranium làm giàu gần cấp độ vũ khí - loại có hàm lượng U-235 rất cao, chỉ còn một bước ngắn nữa là đạt mức có thể dùng để chế tạo bom hạt nhân - mà Iran đang nắm giữ.
Sáng 15/3, hơn 6 triệu cử tri của Thủ đô Hà Nội hoà cùng hơn 78,9 triệu cử tri trên cả nước tiến hành bỏ phiếu bầu cử đại biểu Quốc hội khóa XVI và đại biểu HĐND các cấp nhiệm kỳ 2026-2031.
Tinh thần, trách nhiệm cao của cử tri Thủ đô
(Ngày Nay) - Theo báo cáo nhanh của Ủy ban Bầu cử thành phố Hà Nội, tính đến 19 giờ cùng ngày, tỷ lệ cử tri đi bỏ phiếu trên toàn thành phố đạt 99,46%, thể hiện tinh thần trách nhiệm và ý thức chính trị cao.
Nga phát triển AI phát hiện bão và lốc xoáy chỉ trong nửa giờ
Nga phát triển AI phát hiện bão và lốc xoáy chỉ trong nửa giờ
(Ngày Nay) - Các nhà khoa học Nga đã huấn luyện trí tuệ nhân tạo (AI) để phát hiện các cơn bão và lốc xoáy chỉ trong vòng 15-30 phút sau khi hình thành, mở ra khả năng cảnh báo sớm và dự báo chính xác hơn. Với bước phát triển này, việc xử lý dữ liệu thủ công để phát hiện những hiện tượng này trước đây có thể mất hàng tháng, trong khi AI có thể hoàn thành trong vài phút.