Tháng trước, hình ảnh vụ nổ gần Lầu Năm Góc xuất hiện chớp nhoáng trên mạng xã hội gây hỗn loạn và bán tháo trên thị trường chứng khoán. Giới chức xác nhận ảnh do AI tạo ra.
Theo Jeffrey McGregor, CEO Truepic, đây chỉ l&a
grave; “bề nổi” của những g&i
grave; có thể xảy ra trong tương lai: "Chúng ta sẽ nh&i
grave;n thấy nhiều nội dung do AI tạo ra trôi nổi trên mạng xã hội hơn, nhưng lại chưa chuẩn bị g&i
grave; cho điều đó".
Công ty của McGregor đang t&i
grave;m cách giải quyết vấn đề n&a
grave;y. Truepic cung cấp công nghệ xác định h&i
grave;nh ảnh thật hay giả qua Truepic Lens. Ứng dụng thu thập dữ liệu bao gồm ng&a
grave;y, giờ, địa điểm v&a
grave; thiết bị d&u
grave;ng để tạo h&i
grave;nh ảnh rồi áp dụng chữ ký số để xác minh.
Truepic th&a
grave;nh lập năm 2015, sớm hơn v&a
grave;i năm so với các công cụ tạo ảnh bằng AI như Dall-E v&a
grave; Midjourney. Theo McGregor, nhu cầu từ các cá nhân, tổ chức cần
phải đưa ra quyết định dựa trên h&i
grave;nh ảnh ng&a
grave;y c&a
grave;ng lớn, từ công ty truyền t
hông đến bảo hiểm.
“Khi thứ g&i
grave; cũng có thể l&a
grave;m giả, mọi thứ đều có thể l&a
grave;m giả. AI tạo sinh đã đạt được bước ngoặt về chất lượng v&a
grave; khả năng tiếp cận, chúng ta k
hông c&o
grave;n biết được cái g&i
grave; l&a
grave; thật khi online”, ông nhận xét.
Các hãng như Truepic đã chống lại t
hông tin sai sự thật nhiều năm nay nhưng sự trỗi dậy của h&a
grave;ng loạt công cụ AI mới với tốc độ tạo h&i
grave;nh ảnh, b&a
grave;i viết nhanh chóng theo lời nhắc (prompt) của người d&u
grave;ng, khiến cho nỗ lực n&a
grave;y trở nên cấp thiết hơn. Trong v&a
grave;i tháng gần đây, h&i
grave;nh ảnh giả về Giáo ho&a
grave;ng Francis mặc áo khoác lông hay cựu Tổng thống Mỹ Donald Trump bị bắt giữ được chia sẻ rộng rãi trên mạng.
Một số nh&a
grave; lập pháp kêu gọi các hãng công nghệ giải quyết vấn đề. Vera Jourova, Phó Chủ tịch Ủy ban châu Âu, kêu gọi các bên ký kết Bộ quy tắc thực h&a
grave;nh của EU về t
hông tin sai lệch - một danh sách bao gồm Google, Meta, Microsoft v&a
grave; TikTok - "đưa ra công nghệ nhận dạng nội dung AI v&a
grave; dán nhãn rõ r&a
grave;ng cho người d&u
grave;ng".
Ng&a
grave;y c&a
grave;ng có nhiều startup v&a
grave; Big Tech cố gắng thực hiện các tiêu chuẩn v&a
grave; giải pháp để giúp mọi người xác định xem h&i
grave;nh ảnh hoặc video có được tạo bằng AI hay k
hông. Nhưng khi công nghệ AI phát triển nhanh hơn con người có thể theo kịp, k
hông rõ liệu các giải pháp kỹ thuật n&a
grave;y có giải quyết được triệt để vấn đề. Ngay cả OpenAI, công ty đứng sau Dall-E v&a
grave; ChatGPT, đã thừa nhận v&a
grave;o đầu năm nay rằng nỗ lực của chính họ để giúp phát hiện văn bản do AI tạo ra "k
hông ho&a
grave;n hảo" v&a
grave; cảnh báo k
hông nên tin v&a
grave;o mọi thứ.
Cuộc đua vũ trang
Có hai cách tiếp cận với vấn đề: Một dựa v&a
grave;o phát triển các chương tr&i
grave;nh xác định h&i
grave;nh ảnh do AI tạo ra sau khi chúng được sản xuất v&a
grave; chia sẻ qua mạng; hai l&a
grave; tập trung v&a
grave;o đánh dấu ảnh l&a
grave; thật hay do AI tạo ra ngay từ ban đầu bằng một loại chữ ký số.
Reality Defender v&a
grave; Hive Moderation đang đi theo cách tiếp cận đầu tiên. Với nền tảng của họ, người d&u
grave;ng có thể tải ảnh lên để quét v&a
grave; nhận t
hông báo về % ảnh thật hay giả. Reality Defender cho biết họ d&u
grave;ng “công nghệ vân tay nội dung tạo sinh v&a
grave; deepfake độc quyền” để phát hiện video, âm thanh v&a
grave; h&i
grave;nh ảnh do AI tạo ra.
Công cụ phát hiện h&i
grave;nh ảnh do AI tạo ra của Reality Defender
Đây có thể l&a
grave; mảng kinh doanh béo bở nếu vấn đề trở th&a
grave;nh nỗi lo thường trực của các cá nhân, doanh nghiệp. Các dịch vụ n&a
grave;y miễn phí d&u
grave;ng thử
sau ??ó tính phí. Hive Moderation thu 1,5 USD cho mỗi 1.000 h&i
grave;nh ảnh, ngo&a
grave;i ra c&o
grave;n “hợp đồng thường niên” (có giảm giá). Giá của Reality Defender t&u
grave;y theo các yếu tố khác nhau.
Ben Colman, CEO Reality Defender, cho rằng rủi ro đang nhân lên mỗi tháng. Bất kỳ ai cũng có thể l&a
grave;m ảnh giả bằng AI m&a
grave; k
hông cần đến bằng khoa học máy tính, thuê máy chủ, biết cách viết mã độc, m&a
grave; chỉ cần tra Google. Kevin Guo, CEO Hive Moderation, gọi đây l&a
grave; “cuộc đua vũ trang”. Họ
phải t&i
grave;m ra mọi cách thức mới m&a
grave; mọi người đang sử dụng để tạo nội dung giả, hiểu nó v&a
grave; đưa v&a
grave;o bộ dữ liệu để phân loại. D&u
grave; tỷ lệ nội dung do AI tạo ra hiện nay c&o
grave;n thấp, nó sẽ thay đổi chỉ trong v&a
grave;i năm.
Tiếp cận ph&o
grave;ng vệ
Trong cách tiếp cận ph&o
grave;ng vệ, các hãng công nghệ lớn hơn t&i
grave;m cách tích hợp một loại watermark v&a
grave;o ảnh để xác thực nó l&a
grave; thật hay giả ngay khi vừa được tạo ra. Nỗ lực chủ yếu do Liên minh nguồn gốc v&a
grave; xác thực nội dung (C2PA) dẫn dắt.
C2PA th&a
grave;nh lập năm 2021 để tạo tiêu chuẩn kỹ thuật giúp chứng nhận nguồn gốc v&a
grave; lịch sử nội dung kỹ thuật số. Nó kết hợp những nỗ lực của Sáng kiến xác thực nội dung (CAI) do Adobe dẫn đầu v&a
grave; Project Origin, do Microsoft v&a
grave; BBC hậu thuẫn, tập trung v&a
grave;o việc chống lại t
hông tin sai lệch trong tin tức kỹ thuật số. Các công ty khác tham gia C2PA bao gồm Truepic, Intel v&a
grave; Sony.
Dựa trên hướng dẫn của C2PA, CAI tạo công cụ nguồn mở để các công ty tạo metadata chứa t
hông tin về h&i
grave;nh ảnh. Nó giúp các nh&a
grave; sáng tạo chia sẻ chi tiết về cách họ tạo ra h&i
grave;nh ảnh một cách minh bạch. Bằng cách n&a
grave;y, người d&u
grave;ng cuối có thể biết được ảnh đã thay đổi g&i
grave; rồi tự quyết định tính xác thực của ảnh.
“Adobe k
hông thu tiền từ nỗ lực n&a
grave;y. Chúng tôi l&a
grave;m vậy v&i
grave; nghĩ nó cần
phải tồn tại”, Andy Parsons, Giám đốc cấp cao tại CAI, trả lời CNN. “Chúng tôi cho rằng nó l&a
grave; biện pháp ph&o
grave;ng thủ nền tảng rất quan trọng chống tại t
hông tin sai sự thật”
.
Gi??i công nghệ muốn tạm dừng phát triển AI k
hông v&i
grave; lo ngại cho lo&a
grave;i người?
Nhiều công ty đã tích hợp tiêu chuẩn C2PA v&a
grave; công cụ CAI v&a
grave;o ứng dụng. Chẳng hạn, công cụ tạo ảnh AI Firefly vừa được Adobe đưa v&a
grave;o Photoshop. Microsoft cũng t
hông báo các tác phẩm AI do Bing Image Creator v&a
grave; Microsoft Designer tạo ra sẽ chứa chữ ký mã hóa trong v&a
grave;i tháng tới.
Các hãng khác như Google dường như theo đuổi chiến thuật kết hợp cả hai cách tiếp cận. Hồi tháng 5, Google công bố công cụ About this image, giúp người d&u
grave;ng biết thời điểm bức ảnh được lập chỉ mục (index) trên Google. Ngo&a
grave;i ra, mọi h&i
grave;nh ảnh do AI của Google tạo ra sẽ được đánh dấu trong tập tin gốc để cung cấp bối cảnh nếu ảnh được t&i
grave;m thấy trên một nền tảng, website khác.
D&u
grave; doanh nghiệp công nghệ đang cố gắng xử lý quan ngại xoay quanh h&i
grave;nh ảnh do AI tạo ra cũng như tính to&a
grave;n vẹn của truyền t
hông số, các chuyên gia trong lĩnh vực nhấn mạnh họ cần hợp tác với nhau v&a
grave; với chính phủ để giải quyết vấn đề. K
hông chỉ kêu gọi các nền tảng xem xét vấn đề một cách nghiêm túc, ngừng quảng bá nội dung giả mạo, c&o
grave;n cần đến các quy định quản lý cũng như giáo dục.
Theo Parsons, đây k
hông
phải thứ m&a
grave; một công ty, chính phủ hay cá nhân đơn lẻ n&a
grave;o có thể l&a
grave;m được. Chúng ta cần mọi người đều
phải tham gia. D&u
grave; vậy, c&u
grave;ng lúc n&a
grave;y, các hãng công nghệ cũng đang thúc đẩy để đưa nhiều công cụ AI hơn ra thế giới.
(Theo CNN)
Apple "tuyên chiến" với Meta, AI khiến gần 4.000 người Mỹ mất việc l&a
grave;m
Apple “tuyên chiến” với Meta; AI khiến gần 4.000 người Mỹ mất việc l&a
grave;m;... l&a
grave; những t
hông tin nổi bật trong bản tin Công nghệ thứ 7 tuần n&a
grave;y.
Giới công nghệ muốn tạm dừng phát triển AI k
hông v&i
grave; lo ngại cho lo&a
grave;i người?
Giới công nghệ kêu gọi dừng phát triển AI do k
hông muốn bị đối thủ bỏ lại quá xa trong cuộc đua ứng dụng thương mại v&a
grave; quân sự.
Nguồn bài viết : Xổ số Max 3D Pro