GPT-4o tồn tại các rủi ro về quyền riêng tư
Trước khi GPT-4o được ra mắt vào tháng 5 năm nay, Open AI kết hợp với các nhóm chuyên gia bên ngoài công ty để tiến hành đánh giá các rủi ro của mô hình.
Quá trình đánh giá tập trung vào việc tìm ra các điểm yếu an toàn của hệ thống như nguy cơ tạo ra các bản sao trái phép về giọng nói của con người hoặc các đoạn âm thanh có bản quyền bị sao chép, tạo ra các nội dung nhạy cảm và bạo lực.
Và mức độ rủi ro của GPT-4o đã được công bố hôm nay với kết quả trung bình. Kết quả này được lấy từ mức độ đánh giá cao nhất trong 4 tiêu chí: An ninh mạng, Mối đe dọa sinh học, Sự thuyết phục và Tính tự chủ của mô hình.
Ngoại trừ tính thuyết phục được đánh giá trung bình thì ba tiêu chí còn lại đều ở mức rủi ro thấp. Theo các nhà nghiên cứu nhận thấy có một số ít mẫu phản hồi từ GPT-4o vẫn có tính thuyết phục hơn so với nội dung do con người viết.
Số liệu đánh giá độ an toàn của GPT-4o
Theo đại diện phát ngôn của OpenAI chia sẻ quá trình đánh giá này được hãng kết hợp với đơn vị bên ngoài như Model Evaluation and Threat Research và Apollo Research, cả hai đều có kinh nghiệm xây dựng các đánh giá về các mô hình AI.
Và việc đánh giá này không phải lần đầu OpenAI tiến hành, ở các mô hình GPT-4 , phiên bản GPT-4 trực quan và DALL-E 3 cũng đã được thử nghiệm tương tự và nghiên cứu đã được công bố.
Tuy nhiên, OpenAI công bố bản báo cáo này trong hoàn cảnh khá nhạy cảm khi hãng đang liên tiếp nhận nhưng phản hồi yêu cầu công ty cần công bố rõ về dữ liệu đào tạo của mô hình và quá trình thử nghiệm của các mô hình có an toàn không?
GPT-4o tồn tại các rủi ro về quyền riêng tư
Trước khi GPT-4o được ra mắt vào tháng 5 năm nay, Open AI kết hợp với các nhóm chuyên gia bên ngoài công ty để tiến hành đánh giá các rủi ro của mô hình.
Quá trình đánh giá tập trung vào việc tìm ra các điểm yếu an toàn của hệ thống như nguy cơ tạo ra các bản sao trái phép về giọng nói của con người hoặc các đoạn âm thanh có bản quyền bị sao chép, tạo ra các nội dung nhạy cảm và bạo lực.
Và mức độ rủi ro của GPT-4o đã được công bố hôm nay với kết quả trung bình. Kết quả này được lấy từ mức độ đánh giá cao nhất trong 4 tiêu chí: An ninh mạng, Mối đe dọa sinh học, Sự thuyết phục và Tính tự chủ của mô hình.
Ngoại trừ tính thuyết phục được đánh giá trung bình thì ba tiêu chí còn lại đều ở mức rủi ro thấp. Theo các nhà nghiên cứu nhận thấy có một số ít mẫu phản hồi từ GPT-4o vẫn có tính thuyết phục hơn so với nội dung do con người viết.
Số liệu đánh giá độ an toàn của GPT-4o
Theo đại diện phát ngôn của OpenAI chia sẻ quá trình đánh giá này được hãng kết hợp với đơn vị bên ngoài như Model Evaluation and Threat Research và Apollo Research, cả hai đều có kinh nghiệm xây dựng các đánh giá về các mô hình AI.
Và việc đánh giá này không phải lần đầu OpenAI tiến hành, ở các mô hình GPT-4 , phiên bản GPT-4 trực quan và DALL-E 3 cũng đã được thử nghiệm tương tự và nghiên cứu đã được công bố.
Tuy nhiên, OpenAI công bố bản báo cáo này trong hoàn cảnh khá nhạy cảm khi hãng đang liên tiếp nhận nhưng phản hồi yêu cầu công ty cần công bố rõ về dữ liệu đào tạo của mô hình và quá trình thử nghiệm của các mô hình có an toàn không?
Tin hot
Đặt lịch