Trí tuệ nhân tạo (AI) ngày càng được tích hợp sâu vào các công nghệ dựa trên nhận diện hình ảnh, từ xe tự hành cho đến hệ thống chẩn đoán hình ảnh y tế. Tuy nhiên, các chuyên gia cảnh báo việc ứng dụng ngày càng rộng rãi này cũng làm gia tăng rủi ro an ninh.
Rất nguy hiểm nếu AI bị “bịt mắt” khi điều khiển xe
Một phương pháp mới mang tên RisingAttacK có thể đe dọa độ tin cậy của các hệ thống thị giác AI bằng cách ngầm thao túng những gì AI “thấy”, dù hình ảnh không có gì thay đổi đối với mắt người.
Lừa AI bằng cách chỉnh sửa ảnh ở mức tối thiểu
Được phát triển bởi nhóm nghiên cứu tại Đại học North Carolina (Mỹ), RisingAttacK là một dạng tấn công đối kháng (adversarial attack), trong đó đầu vào hình ảnh được tinh chỉnh rất nhẹ nhàng nhưng có chủ đích nhằm đánh lừa các mô hình AI nhận diện thị giác.
Tianfu Wu, phó giáo sư ngành kỹ thuật điện và máy tính, đồng tác giả nghiên cứu, cho biết: “Kỹ thuật này cần một chút sức mạnh tính toán, nhưng cho phép chúng tôi thay đổi rất nhỏ, có mục tiêu vào những đặc điểm then chốt của hình ảnh để khiến cuộc tấn công thành công”.
Điểm đáng lo ngại là những thay đổi tinh vi này hoàn toàn không thể phát hiện bằng mắt thường, khiến hình ảnh vẫn trông hoàn toàn bình thường với con người.
Phó giáo sư Wu giải thích: “Kết quả cuối cùng là: hai hình ảnh có thể giống hệt nhau đối với người xem, cả hai đều rõ ràng là có hình chiếc xe hơi. Nhưng do ảnh hưởng của RisingAttacK, AI sẽ nhìn thấy xe trong ảnh đầu tiên, nhưng không nhìn thấy xe trong ảnh thứ hai”.
Nhóm nghiên cứu đã thử nghiệm RisingAttacK trên 4 mô hình thị giác AI nổi tiếng: là ResNet-50; DenseNet-121; ViTB (Vision Transformer – Base); DEiT-B (Data-efficient Image Transformer – Base). Kết quả: tất cả đều bị thao túng thành công.
Phó giáo sư Wu cho biết: “Chúng tôi có thể ảnh hưởng đến khả năng nhận diện của AI đối với bất kỳ mục tiêu nào trong Top 20 – 30 đối tượng mà nó được huấn luyện”, liệt kê các ví dụ phổ biến như xe hơi, xe đạp, người đi bộ và biển báo dừng.
Nguy cơ lớn cho các hệ thống tự hành và an toàn
Khả năng “lừa thị giác” của AI như vậy có thể gây hậu quả nghiêm trọng đối với các hệ thống an toàn quan trọng. Dưới đây là những ảnh hưởng chính:
– Gây nhầm lẫn hoặc bỏ sót vật thể quan trọng
Nguy hiểm nhất: RisingAttacK có thể làm cho AI của xe tự hành “không nhìn thấy” hoặc “nhận diện sai” các vật thể quan trọng trên đường, ngay cả khi hình ảnh đó hoàn toàn bình thường đối với mắt người.
Ví dụ cụ thể: Xe có thể bỏ sót biển báo dừng (stop sign), không nhận diện được người đi bộ băng qua đường, hoặc không phát hiện ra một chiếc xe khác đang di chuyển gần đó.
Hậu quả: Điều này có thể dẫn đến các tình huống nguy hiểm như xe không dừng lại khi cần thiết, va chạm với người đi bộ, hoặc gây tai nạn giao thông nghiêm trọng.
– Ảnh hưởng đến độ tin cậy và an toàn của hệ thống
Công nghệ xe tự hành được xây dựng dựa trên sự tin cậy tuyệt đối vào khả năng nhận diện và xử lý môi trường xung quanh. Lỗ hổng này làm suy yếu nền tảng cốt lõi đó.
Nếu một hệ thống có thể bị lừa dối một cách tinh vi mà không ai hay biết, niềm tin vào sự an toàn của xe tự hành sẽ bị lung lay, cản trở sự phát triển và chấp nhận rộng rãi của công nghệ này.
– Khó phát hiện và cảnh giác
Điểm đáng sợ của RisingAttacK là những thay đổi trên hình ảnh là hoàn toàn không thể phát hiện bằng mắt thường. Điều này có nghĩa là con người không thể dễ dàng nhận ra rằng hệ thống AI đang bị tấn công hoặc bị lừa dối.
Việc phát hiện và chống lại các cuộc tấn công đối kháng tinh vi như vậy đòi hỏi các biện pháp bảo mật AI tiên tiến, không chỉ dựa vào việc kiểm tra hình ảnh bằng mắt.
– Tạo ra một loại hình tấn công mạng mới
Thay vì tấn công trực tiếp vào phần mềm hoặc phần cứng, RisingAttacK tấn công vào cách AI “nhận thức” thế giới. Điều này mở ra một loại hình tấn công mạng mới, đòi hỏi các nhà phát triển xe tự hành phải xem xét lại toàn bộ chiến lược phòng thủ của mình.
Tóm lại, lỗ hổng RisingAttacK là một mối đe dọa nghiêm trọng đối với xe tự hành vì nó có thể làm suy giảm khả năng nhận diện thị giác của AI một cách âm thầm, dẫn đến những quyết định sai lầm và tiềm ẩn nguy cơ tai nạn. Điều này nhấn mạnh tầm quan trọng của việc nghiên cứu và phát triển các kỹ thuật phòng thủ mạnh mẽ hơn để bảo vệ các hệ thống AI quan trọng khỏi các cuộc tấn công đối kháng.