Hiện nay, người ta nhắc đến ngày càng nhiều những ích lợi to lớn do
việc áp dụng hiệu quả trí tuệ nhân tạo. Ở hướng ngược lại, trí tuệ nhân tạo
mang đến những nguy cơ không nhỏ cho xã hội. Bài viết này nêu lên một trong
những mối nguy như thế.
ZAO, ứng dụng hấp dẫn
biến bạn thành diễn viên điện ảnh nổi tiếng
Đầu tháng 9 này, một ứng dụng của Trung quốc ra đời và nhanh
chóng tạo ra cơn sốt trên toàn thế giới: ứng dụng ZAO. Nếu trước đây đã có một
số ứng dụng hoán đổi gương mặt, lấy ảnh gương mặt của bạn hoán đổi với gương
mặt của người khác (ảnh tĩnh) thì ZAO đã đi một bước xa hơn nhờ ứng dụng trí
tuệ nhân tạo (AI): hoán đổi gương mặt của bạn với hình ảnh của diễn viên điện
ảnh nổi tiếng trong một đoạn video (ảnh động).
Ứng dụng ZAO hoán đổi
gương mặt bạn với diễn viên trong những video nổi tiếng
ZAO là một ứng dụng hoàn toàn miễn phí. Bạn chỉ cần đưa lên
một tấm ảnh chân dung của mình và chọn trong thư viện các clip của ZAO, gồm
trích đoạn các bộ phim điện ảnh hay show truyền hình nổi tiếng là bạn sẽ trở
thành diễn viên chính trong các clip ấy. ZAO sẽ yêu cầu bạn thực hiện một số
động tác nhỏ như: nhép miệng, nhắm mở mắt…và ghi hình lại. Điều này giúp ZAO xử
lý các động tác cơ mặt của bạn trong clip được chân thật hơn, nhưng nếu bạn không
làm thì ZAO vẫn tạo nên clip với độ trung thực kém hơn một chút.
Công nghệ hoán đổi khuôn mặt này là một dạng công nghệ
Deepfake. Trong thuật ngữ chuyên môn này, Deep xuất phát từ Deep-Learning (học
sâu) trong AI, một hướng nghiên cứu giúp máy tư duy giống người một cách sâu
sắc hơn, còn Fake là giả.
Ngay sau khi ra đời ZAO đã được nhiệt liệt hưởng ứng và
nhanh chóng chiếm vị trí số 1 các app được download về nhiều nhất tại Trung
quốc. Cũng ngay sau đó nó phải đón nhận những phản ứng gay gắt: Trong phần
quyền hạn của ứng dụng, nhà phát triển đã ghi rằng họ được phép sử dụng miễn
phí và vĩnh viễn các nội dung do người dùng tạo ra. Ai mà biết được họ sẽ sử
dụng hình ảnh của người dùng cho mục đích gì? Càng đáng lo ngại hơn nữa nếu ta
biết rằng ZAO là sản phẩm của Momo – công ty Trung Quốc sở hữu dịch vụ hẹn hò!
Bỏ qua chuyện vi phạm quyền riêng tư ấy, cái nhìn xa hơn
đáng lo ngại hơn nhiều. Trước đây, cần hàng trăm hình ảnh để tạo ra một video
deepfake thuyết phục, giờ chỉ cần một hình ảnh duy nhất là có kết quả tương đối
tốt rồi. ZAO là một ứng dụng phổ biến, miễn phí mà đã làm được như thế rồi, vậy
những nghiên cứu quy mô lớn đã đạt được kết quả đến đâu? Trong tương lai làm
sao biết được đâu là một video giả tạo?
Vi phạm chuẩn mực đạo
đức
Cuối tháng 6 năm nay, một ứng dụng cũng áp dụng công nghệ
Deepfake mang tên DeepNude ra mắt gây xôn xao dư luận. Với DeepNude, người ta
đưa vào ảnh phụ nữ có mặc trang phục, nó sẽ đưa ra hình ảnh người phụ nữ ấy
khỏa thân hoàn toàn. Bản miễn phí của ứng dụng những chỗ nhạy cảm sẽ bị làm mờ
và họ quảng cáo rằng bản cao cấp giá 99 USD sẽ hiện rõ, đầy đủ. Ứng dụng này đã
chịu sự phản ứng gay gắt với lý do là đã xúc phạm nhân phẩm phụ nữ, và cuối
cùng đã phải rút khỏi kho ứng dụng.
Với ZAO hiện giờ, mặc dù bản miễn phí chỉ cho phép hoán đổi
gương mặt người dùng với gương mặt nhân vật chính trong những clip có sẵn, và
nói chung là lành mạnh, nhưng với đà phát triển này việc hoán đổi gương mặt
người dùng với nhân vật trong clip bất kỳ là hoàn toàn khả thi. Và với những
nghiên cứu sâu hơn, việc làm cho những clip ấy “như thật” sẽ không phải là vấn
đề nan giải nữa.
Khi ấy, hãy tưởng tượng gương mặt của bạn hoặc người thân
được lồng vào những clip khiêu dâm và tải lên mạng. Thật là lắm sự phiền nhiễu!
Ở phạm vi lớn hơn, lấy gương mặt của các chính khách, các
nhân vật có ảnh hưởng lớn lồng ghép vào các đoạn video nhạy cảm về chính trị,
xã hội… để củng cố một thông tin giả nào đó sẽ tạo nên một hậu quả khó lường!
Mối quan ngại của cả
thế giới
Về lý thuyết, một video deepfake càng giống thật nếu có càng
nhiều hình ảnh biểu cảm gương mặt và môi của nhân vật để ứng dụng ấy mô phỏng
và đưa vào video. Ví dụ, hồi tháng 7-2017, một nhóm nghiên cứu tại Đại học
Washington (Mỹ) đã công bố một video deepfake về cựu tổng thống Barack Obama y
như thật. Điều này thật dễ dàng, vì trong 8 năm làm tổng thống, mọi biểu cảm
gương mặt và môi của ông Obama đều có thể được tìm thấy trên mạng. Vì thế, một
số chuyên gia khuyên rằng nên hạn chế chia sẻ các hình ảnh lên mạng xã hội,
những nơi bất kỳ ai cũng có thể dễ dàng tìm thấy nguồn dữ liệu cho deepfake.
Thế nhưng liệu bạn có làm được không? Hơn nữa, với đà phát triển công nghệ này,
như ta thấy với ZAO, chỉ cần một ảnh chân dung là có thể làm được video
deepfake rồi!
Bộ Quốc phòng Mỹ có một chương trình nghiên cứu có tên
MediFor, được tạo ra nhằm thu hẹp khoảng cách công nghệ về việc nhận diện hình
ảnh, khi không có hệ thống đầu cuối nào có thể xác thực được việc chỉnh sửa các
hình ảnh trên smartphone và camera kỹ thuật số. Chương trình này đang nỗ lực
tạo ra các công cụ sử dụng AI để phân tích các phương tiện trực quan và phát
hiện những thao tác chỉnh sửa tinh vi bằng AI.
Trung tâm Nghiên cứu chiến lược và quốc tế (CSIS) của Mỹ xếp
các video được làm giả dựa trên công nghệ deepfake vào 1 trong 5 nguy cơ gây
mất an ninh toàn cầu năm 2019. Một nhà nghiên cứu thuộc tổ chức này cho rằng
thứ duy nhất có thể chống lại fake news dưới bất kỳ hình thức nào lại chính là
con người, tất nhiên phải được giáo dục và có nhận thức về nguy cơ từ các hành
động của mình trên mạng Internet.
Phạm Hoài Nhân
Báo Đồng Nai - 30/09/2019
Không có nhận xét nào:
Đăng nhận xét