Ngày 25/4, Công ty công nghệ Nvidia đã chính thức công bố phần mềm NeMo Guardrails, buộc các siêu AI không được trả lời lan man, phải tự sáng tác, tránh chủ đề độc hại và loại bỏ câu lệnh nguy hiểm.

Phần mềm này được đánh giá là một trong những bước tiến quan trọng của trí tuệ nhân tạo nhằm giải quyết vấn đề siêu AI bị "ảo giác" - vấn đề mà những mô hình AI tạo sinh như GPT của OpenAI hay LaMDA của Google đều đang gặp phải.

Phần mềm mới của Nvidia có thể cấm các chatbot AI đưa ra câu trả lời bịa đặt (Ảnh: Sưu tầm)

NeMo Guardrails sử dụng nhiều lớp ngăn AI nói ra chủ đề ngoài tầm hiểu biết để giảm thiểu các câu trả lời tự bịa của chatbot AI.

Nó sẽ tiến hành lọc những kết quả được cho là độc hại do AI đưa ra, giảm khả năng đưa ra câu trả lời vô nghĩa hoặc từ khóa xấu có thể xuất hiện trong dữ liệu của các nền tảng.

Phó chủ tịch nghiên cứu ứng dụng của Nvidia, Jonathan Cohen cho biết: “Siêu AI cần được mã hóa cứng trong các logic thực thi của hệ thống bảo vệ. Điều này sẽ đảm bảo chúng không nói luyên thuyên những thứ ngoài chủ đề người dùng đang đề cập hoặc nhắc đến nội dung độc hại”.

Phần mềm mới của Nvidia sẽ dùng một mô hình ngôn ngữ lớn để kiểm tra câu trả lời tự bịa của siêu AI. Nếu chatbot không đưa ra câu trả lời phù hợp, Nemo Guardrails sẽ không hiển thị nội dung đến người dùng.

NeMo Guardrails được cung cấp dưới dạng nguồn mở thông qua các dịch vụ của Nvidia và có thể dùng trong ứng dụng thương mại.

Các công ty AI khác như Google, OpenAI, Microsoft cũng đang ngăn chặn sản phẩm AI của mình đưa ra thông tin độc hại và bịa đặt câu trả lời. Thậm chí, nhà sáng lập ChatGPT từng treo thưởng số tiền lên đến 20.000 USD cho người dùng nào tìm ra được lỗ hổng của chatbot AI này.

Phần mềm của Nvidia có thể cấm AI bịa đặt câu trả lời

26/04/2023 - Tin công nghệ
Theo kênh truyền hình CNBC, phần mềm mới của Nvidia có thể cấm các chatbot AI đưa ra câu trả lời bịa đặt và loại bỏ câu lệnh nguy hiểm.

Ngày 25/4, Công ty công nghệ Nvidia đã chính thức công bố phần mềm NeMo Guardrails, buộc các siêu AI không được trả lời lan man, phải tự sáng tác, tránh chủ đề độc hại và loại bỏ câu lệnh nguy hiểm.

Phần mềm này được đánh giá là một trong những bước tiến quan trọng của trí tuệ nhân tạo nhằm giải quyết vấn đề siêu AI bị "ảo giác" - vấn đề mà những mô hình AI tạo sinh như GPT của OpenAI hay LaMDA của Google đều đang gặp phải.

Phần mềm mới của Nvidia có thể cấm các chatbot AI đưa ra câu trả lời bịa đặt (Ảnh: Sưu tầm)

NeMo Guardrails sử dụng nhiều lớp ngăn AI nói ra chủ đề ngoài tầm hiểu biết để giảm thiểu các câu trả lời tự bịa của chatbot AI.

Nó sẽ tiến hành lọc những kết quả được cho là độc hại do AI đưa ra, giảm khả năng đưa ra câu trả lời vô nghĩa hoặc từ khóa xấu có thể xuất hiện trong dữ liệu của các nền tảng.

Phó chủ tịch nghiên cứu ứng dụng của Nvidia, Jonathan Cohen cho biết: “Siêu AI cần được mã hóa cứng trong các logic thực thi của hệ thống bảo vệ. Điều này sẽ đảm bảo chúng không nói luyên thuyên những thứ ngoài chủ đề người dùng đang đề cập hoặc nhắc đến nội dung độc hại”.

Phần mềm mới của Nvidia sẽ dùng một mô hình ngôn ngữ lớn để kiểm tra câu trả lời tự bịa của siêu AI. Nếu chatbot không đưa ra câu trả lời phù hợp, Nemo Guardrails sẽ không hiển thị nội dung đến người dùng.

NeMo Guardrails được cung cấp dưới dạng nguồn mở thông qua các dịch vụ của Nvidia và có thể dùng trong ứng dụng thương mại.

Các công ty AI khác như Google, OpenAI, Microsoft cũng đang ngăn chặn sản phẩm AI của mình đưa ra thông tin độc hại và bịa đặt câu trả lời. Thậm chí, nhà sáng lập ChatGPT từng treo thưởng số tiền lên đến 20.000 USD cho người dùng nào tìm ra được lỗ hổng của chatbot AI này.

Xem thêm

Đánh giá - Bình luận
Nhấn vào đây để đánh giá
X
Đặt lịch hẹn sửa chữa
Hãy đặt lịch trước để chúng tôi phục vụ bạn tốt hơn
Liên hệ tổng đài 1800 6024 - Hoặc 085 245 3366 để được đặt lịch.
X
Tra cứu bảo hành
Dễ dàng theo dõi tình trạng bảo hành máy của bạn
Tra cứu thông tin bảo hành

Nhập thông tin bảo hành

Đặt lịch

0.37433 sec| 2473.078 kb