Ngày 25/4, Công ty công nghệ Nvidia đã chính thức công bố phần mềm NeMo Guardrails, buộc các siêu AI không được trả lời lan man, phải tự sáng tác, tránh chủ đề độc hại và loại bỏ câu lệnh nguy hiểm.
Phần mềm này được đánh giá là một trong những bước tiến quan trọng của trí tuệ nhân tạo nhằm giải quyết vấn đề siêu AI bị "ảo giác" - vấn đề mà những mô hình AI tạo sinh như GPT của OpenAI hay LaMDA của Google đều đang gặp phải.
NeMo Guardrails sử dụng nhiều lớp ngăn AI nói ra chủ đề ngoài tầm hiểu biết để giảm thiểu các câu trả lời tự bịa của chatbot AI.
Nó sẽ tiến hành lọc những kết quả được cho là độc hại do AI đưa ra, giảm khả năng đưa ra câu trả lời vô nghĩa hoặc từ khóa xấu có thể xuất hiện trong dữ liệu của các nền tảng.
Phó chủ tịch nghiên cứu ứng dụng của Nvidia, Jonathan Cohen cho biết: “Siêu AI cần được mã hóa cứng trong các logic thực thi của hệ thống bảo vệ. Điều này sẽ đảm bảo chúng không nói luyên thuyên những thứ ngoài chủ đề người dùng đang đề cập hoặc nhắc đến nội dung độc hại”.
Phần mềm mới của Nvidia sẽ dùng một mô hình ngôn ngữ lớn để kiểm tra câu trả lời tự bịa của siêu AI. Nếu chatbot không đưa ra câu trả lời phù hợp, Nemo Guardrails sẽ không hiển thị nội dung đến người dùng.
NeMo Guardrails được cung cấp dưới dạng nguồn mở thông qua các dịch vụ của Nvidia và có thể dùng trong ứng dụng thương mại.
Các công ty AI khác như Google, OpenAI, Microsoft cũng đang ngăn chặn sản phẩm AI của mình đưa ra thông tin độc hại và bịa đặt câu trả lời. Thậm chí, nhà sáng lập ChatGPT từng treo thưởng số tiền lên đến 20.000 USD cho người dùng nào tìm ra được lỗ hổng của chatbot AI này.
Ngày 25/4, Công ty công nghệ Nvidia đã chính thức công bố phần mềm NeMo Guardrails, buộc các siêu AI không được trả lời lan man, phải tự sáng tác, tránh chủ đề độc hại và loại bỏ câu lệnh nguy hiểm.
Phần mềm này được đánh giá là một trong những bước tiến quan trọng của trí tuệ nhân tạo nhằm giải quyết vấn đề siêu AI bị "ảo giác" - vấn đề mà những mô hình AI tạo sinh như GPT của OpenAI hay LaMDA của Google đều đang gặp phải.
NeMo Guardrails sử dụng nhiều lớp ngăn AI nói ra chủ đề ngoài tầm hiểu biết để giảm thiểu các câu trả lời tự bịa của chatbot AI.
Nó sẽ tiến hành lọc những kết quả được cho là độc hại do AI đưa ra, giảm khả năng đưa ra câu trả lời vô nghĩa hoặc từ khóa xấu có thể xuất hiện trong dữ liệu của các nền tảng.
Phó chủ tịch nghiên cứu ứng dụng của Nvidia, Jonathan Cohen cho biết: “Siêu AI cần được mã hóa cứng trong các logic thực thi của hệ thống bảo vệ. Điều này sẽ đảm bảo chúng không nói luyên thuyên những thứ ngoài chủ đề người dùng đang đề cập hoặc nhắc đến nội dung độc hại”.
Phần mềm mới của Nvidia sẽ dùng một mô hình ngôn ngữ lớn để kiểm tra câu trả lời tự bịa của siêu AI. Nếu chatbot không đưa ra câu trả lời phù hợp, Nemo Guardrails sẽ không hiển thị nội dung đến người dùng.
NeMo Guardrails được cung cấp dưới dạng nguồn mở thông qua các dịch vụ của Nvidia và có thể dùng trong ứng dụng thương mại.
Các công ty AI khác như Google, OpenAI, Microsoft cũng đang ngăn chặn sản phẩm AI của mình đưa ra thông tin độc hại và bịa đặt câu trả lời. Thậm chí, nhà sáng lập ChatGPT từng treo thưởng số tiền lên đến 20.000 USD cho người dùng nào tìm ra được lỗ hổng của chatbot AI này.
Tin hot
Đặt lịch