Dự kiến, thông báo chính thức về kế hoạch thành lập sẽ diễn ra sớm nhất là trong tháng này tại cuộc họp của hội đồng chiến lược trí tuệ nhân tạo Nhật Bản. Cơ quan này sẽ bao gồm các chuyên gia từ khu vực tư nhân có kinh nghiệm trong lĩnh vực AI.
Trọng tâm nghiên cứu sẽ là các sản phẩm tiên tiến như ChatGPT, công nghệ AI tổng quát từ OpenAI. Để tránh làm gián đoạn khu vực tư nhân, công nghệ AI tiêu chuẩn được các công ty sử dụng để cải thiện hiệu quả hoạt động sẽ không bị nhắm tới.
Các sản phẩm AI sẽ được thử nghiệm trước khi đưa ra thị trường. Ngoài ra còn có đề xuất yêu cầu bất kỳ sản phẩm AI nào do chính phủ mua phải phải được cơ quan này chứng nhận trước khi sử dụng.
Tổ chức này có kế hoạch xem xét các rủi ro an ninh quốc gia tiềm ẩn, chẳng hạn như khả năng thông tin về cách sản xuất vũ khí sinh học, hóa học hoặc các loại vũ khí khác có thể được lấy thông qua AI. Nó cũng sẽ kiểm tra các lỗi bảo mật, bao gồm cả lỗ hổng bảo mật trước các cuộc tấn công mạng.
Nguy cơ AI vượt ngoài tầm kiểm soát được cũng như các vấn đề liên quan đến thông tin sai lệch và cũng sẽ được các nhà chức trách Nhật Bản chú trọng.
Dự thảo hướng dẫn khai thác AI đã được nhóm các nước G7 hoàn thiện vào ngày 6/12, kêu gọi các nhà phát triển AI phải trải qua đánh giá rủi ro của bên thứ ba trước khi tung sản phẩm ra thị trường.
Vương quốc Anh và Mỹ đang dẫn đầu trong việc tạo ra các cơ quan kiểm soát AI. Vào tháng 11, Vương quốc Anh đã thành lập Viện An toàn AI - viện nghiên cứu đầu tiên thuộc loại này trên thế giới. Sau khi xác minh các sản phẩm AI tiên tiến trước và sau khi ra mắt công chúng, nước này đang xem xét tiết lộ các sản phẩm có rủi ro về bảo mật.
Mỹ, theo lệnh hành pháp của Tổng thống Joe Biden vào tháng 10, đang nỗ lực thiết lập các phương pháp đánh giá an toàn AI với Viện Tiêu chuẩn và Công nghệ Quốc gia (NIST) dẫn đầu.
NIST đặt mục tiêu thành lập một tập đoàn an toàn AI với các công ty tư nhân để tạo ra các phương pháp đánh giá khả năng và rủi ro của AI, với mục tiêu yêu cầu các công ty tư nhân tự tiến hành xác minh rủi ro.