Một nhóm nhà nghiên cứu tại Đại học Stanford và Đại học Rice của Mỹ đã phát hiện mô hình AI tạo sinh mới.
Mô hình này cần "dữ liệu thật và mới hoàn toàn" để bảo đảm chất lượng, nếu không chúng sẽ cho ra những tác phẩm kỳ dị.
Những nhà nghiên cứu tại hai trhường Đại học lớn của Mỹ cho biết thêm: "Nếu không bổ sung dữ liệu thực tế và mới mẻ vào từng thế hệ mô hình tự thực, AI sẽ ngày càng suy giảm về chất lượng và sự đa dạng".
AI sẽ phóng đại những bất thường trong hình ảnh, dẫn tới dữ liệu đào tạo sai lệch và khiến mô hình xuất bản những bức ảnh ngày càng không giống con người.
Tình trạng đó được gọi là "Rối loạn Mô hình Tự thực" (MAD).
Tự thực là quá trình tế bào tự ăn những thành phần của chính bản thân chúng, trong trường hợp này AI tạo ảnh tự tiêu hóa những nội dung do nó tạo ra.
Trí tuệ nhân tạo không thể sinh ra lượng dữ liệu vô tận để tự huấn luyện, nếu điều này không được khắc phục.
Để có thể tiếp tục phát triển, chúng sẽ phải dựa vào hình ảnh thực tế với chất lượng cao do con người tạo ra.
Đây được xem là tin tốt với nhiếp ảnh gia và người làm nội dung, khi AI tạo sinh không thể xóa bỏ vai trò của họ.
Hiện nay, lượng lớn tư liệu của các nhiếp ảnh gia đang được dùng để đào tạo AI.
Đồng thời, để duy trì sức sống cho giới nhiếp ảnh, vấn đề MAD có thể buộc các công ty AI phải mua bản quyền dữ liệu.
Từ khi những AI như Dall-E hay Midjourney trở nên nổi tiếng cách đây một năm, các công ty phát triển luôn khẳng định họ chỉ dùng dữ liệu công khai trên Internet để huấn luyện mô hình.
Tuy nhiên, nhiều hình ảnh trong số đó được bảo vệ bản quyền.
Một nhóm nhà nghiên cứu tại Đại học Stanford và Đại học Rice của Mỹ đã phát hiện mô hình AI tạo sinh mới.
Mô hình này cần "dữ liệu thật và mới hoàn toàn" để bảo đảm chất lượng, nếu không chúng sẽ cho ra những tác phẩm kỳ dị.
Những nhà nghiên cứu tại hai trhường Đại học lớn của Mỹ cho biết thêm: "Nếu không bổ sung dữ liệu thực tế và mới mẻ vào từng thế hệ mô hình tự thực, AI sẽ ngày càng suy giảm về chất lượng và sự đa dạng".
AI sẽ phóng đại những bất thường trong hình ảnh, dẫn tới dữ liệu đào tạo sai lệch và khiến mô hình xuất bản những bức ảnh ngày càng không giống con người.
Tình trạng đó được gọi là "Rối loạn Mô hình Tự thực" (MAD).
Tự thực là quá trình tế bào tự ăn những thành phần của chính bản thân chúng, trong trường hợp này AI tạo ảnh tự tiêu hóa những nội dung do nó tạo ra.
Trí tuệ nhân tạo không thể sinh ra lượng dữ liệu vô tận để tự huấn luyện, nếu điều này không được khắc phục.
Để có thể tiếp tục phát triển, chúng sẽ phải dựa vào hình ảnh thực tế với chất lượng cao do con người tạo ra.
Đây được xem là tin tốt với nhiếp ảnh gia và người làm nội dung, khi AI tạo sinh không thể xóa bỏ vai trò của họ.
Hiện nay, lượng lớn tư liệu của các nhiếp ảnh gia đang được dùng để đào tạo AI.
Đồng thời, để duy trì sức sống cho giới nhiếp ảnh, vấn đề MAD có thể buộc các công ty AI phải mua bản quyền dữ liệu.
Từ khi những AI như Dall-E hay Midjourney trở nên nổi tiếng cách đây một năm, các công ty phát triển luôn khẳng định họ chỉ dùng dữ liệu công khai trên Internet để huấn luyện mô hình.
Tuy nhiên, nhiều hình ảnh trong số đó được bảo vệ bản quyền.
Tin hot
Đặt lịch