GPT-4o tồn tại các rủi ro về quyền riêng tư

Trước khi GPT-4o được ra mắt vào tháng 5 năm nay, Open AI kết hợp với các nhóm chuyên gia bên ngoài công ty để tiến hành đánh giá các rủi ro của mô hình. 

Quá trình đánh giá tập trung vào việc tìm ra các điểm yếu an toàn của hệ thống như nguy cơ tạo ra các bản sao trái phép về giọng nói của con người hoặc các đoạn âm thanh có bản quyền bị sao chép, tạo ra các nội dung nhạy cảm và bạo lực.

Và mức độ rủi ro của GPT-4o đã được công bố hôm nay với kết quả trung bình. Kết quả này được lấy từ mức độ đánh giá cao nhất trong 4 tiêu chí: An ninh mạng, Mối đe dọa sinh học, Sự thuyết phục và Tính tự chủ của mô hình.

Ngoại trừ tính thuyết phục được đánh giá trung bình thì ba tiêu chí còn lại đều ở mức rủi ro thấp. Theo các nhà nghiên cứu nhận thấy có một số ít mẫu phản hồi từ GPT-4o vẫn có tính thuyết phục hơn so với nội dung do con người viết.

Số liệu đánh giá độ an toàn của GPT-4o

Theo đại diện phát ngôn của OpenAI chia sẻ quá trình đánh giá này được hãng kết hợp với đơn vị bên ngoài như Model Evaluation and Threat Research và Apollo Research, cả hai đều có kinh nghiệm xây dựng các đánh giá về các mô hình AI.

Và việc đánh giá này không phải lần đầu OpenAI tiến hành, ở các mô hình GPT-4 , phiên bản GPT-4 trực quan và DALL-E 3 cũng đã được thử nghiệm tương tự và nghiên cứu đã được công bố. 

Tuy nhiên, OpenAI công bố bản báo cáo này trong hoàn cảnh khá nhạy cảm khi hãng đang liên tiếp nhận nhưng phản hồi yêu cầu công ty cần công bố rõ về dữ liệu đào tạo của mô hình và quá trình thử nghiệm của các mô hình có an toàn không?

GPT-4o của Open AI được đánh giá có độ an toàn trung bình

10/08/2024 - Tin công nghệ
OpenAI vừa công bố một bản báo cáo về mức độ an toàn được thực hiện trước khi phát hành GPT-4o. Kết quả báo cáo đưa ra có mức độ an toàn ở mức trung bình.

GPT-4o tồn tại các rủi ro về quyền riêng tư

Trước khi GPT-4o được ra mắt vào tháng 5 năm nay, Open AI kết hợp với các nhóm chuyên gia bên ngoài công ty để tiến hành đánh giá các rủi ro của mô hình. 

Quá trình đánh giá tập trung vào việc tìm ra các điểm yếu an toàn của hệ thống như nguy cơ tạo ra các bản sao trái phép về giọng nói của con người hoặc các đoạn âm thanh có bản quyền bị sao chép, tạo ra các nội dung nhạy cảm và bạo lực.

Và mức độ rủi ro của GPT-4o đã được công bố hôm nay với kết quả trung bình. Kết quả này được lấy từ mức độ đánh giá cao nhất trong 4 tiêu chí: An ninh mạng, Mối đe dọa sinh học, Sự thuyết phục và Tính tự chủ của mô hình.

Ngoại trừ tính thuyết phục được đánh giá trung bình thì ba tiêu chí còn lại đều ở mức rủi ro thấp. Theo các nhà nghiên cứu nhận thấy có một số ít mẫu phản hồi từ GPT-4o vẫn có tính thuyết phục hơn so với nội dung do con người viết.

Số liệu đánh giá độ an toàn của GPT-4o

Theo đại diện phát ngôn của OpenAI chia sẻ quá trình đánh giá này được hãng kết hợp với đơn vị bên ngoài như Model Evaluation and Threat Research và Apollo Research, cả hai đều có kinh nghiệm xây dựng các đánh giá về các mô hình AI.

Và việc đánh giá này không phải lần đầu OpenAI tiến hành, ở các mô hình GPT-4 , phiên bản GPT-4 trực quan và DALL-E 3 cũng đã được thử nghiệm tương tự và nghiên cứu đã được công bố. 

Tuy nhiên, OpenAI công bố bản báo cáo này trong hoàn cảnh khá nhạy cảm khi hãng đang liên tiếp nhận nhưng phản hồi yêu cầu công ty cần công bố rõ về dữ liệu đào tạo của mô hình và quá trình thử nghiệm của các mô hình có an toàn không?

Xem thêm

Đánh giá - Bình luận
Nhấn vào đây để đánh giá
X
Đặt lịch hẹn sửa chữa
Hãy đặt lịch trước để chúng tôi phục vụ bạn tốt hơn
Liên hệ tổng đài 1800 6024 - Hoặc 085 245 3366 để được đặt lịch.
X
Tra cứu bảo hành
Dễ dàng theo dõi tình trạng bảo hành máy của bạn
Tra cứu thông tin bảo hành

Nhập thông tin bảo hành

Đặt lịch

0.27238 sec| 2496.117 kb