Hệ thống CSAM của Apple đã bị đánh lừa, nhưng công ty có hai biện pháp bảo vệ

Cập nhật: Apple đã đề cập đến việc kiểm tra máy chủ lần thứ hai và một công ty thị giác máy tính chuyên nghiệp đã vạch ra khả năng điều này có thể được mô tả trong “Cách kiểm tra thứ hai có thể hoạt động” bên dưới.
Sau khi các nhà phát triển thiết kế ngược các phần của nó, phiên bản đầu tiên của hệ thống CSAM của Apple đã bị đánh lừa một cách hiệu quả để đánh dấu một hình ảnh vô tội.Tuy nhiên, Apple tuyên bố rằng họ có các biện pháp bảo vệ bổ sung để ngăn điều này xảy ra trong cuộc sống thực.
Sự phát triển mới nhất xảy ra sau khi thuật toán NeuralHash được xuất bản lên trang web dành cho nhà phát triển mã nguồn mở GitHub, bất kỳ ai cũng có thể thử nghiệm với nó…
Tất cả các hệ thống CSAM hoạt động bằng cách nhập cơ sở dữ liệu về các tài liệu lạm dụng tình dục trẻ em đã biết từ các tổ chức như Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC).Cơ sở dữ liệu được cung cấp dưới dạng băm hoặc dấu vân tay kỹ thuật số từ hình ảnh.
Mặc dù hầu hết các gã khổng lồ công nghệ đều quét ảnh được tải lên trên đám mây, nhưng Apple sử dụng thuật toán NeuralHash trên iPhone của khách hàng để tạo giá trị băm của ảnh được lưu trữ, sau đó so sánh nó với bản sao đã tải xuống của giá trị băm CSAM.
Hôm qua, một nhà phát triển tuyên bố đã thiết kế ngược thuật toán của Apple và phát hành mã cho GitHub - tuyên bố này đã được Apple xác nhận một cách hiệu quả.
Trong vòng vài giờ sau khi GitHib được phát hành, các nhà nghiên cứu đã sử dụng thành công thuật toán để tạo ra một hình ảnh dương tính giả có chủ ý - hai hình ảnh hoàn toàn khác nhau tạo ra cùng một giá trị băm.Đây được gọi là va chạm.
Đối với những hệ thống như vậy, luôn có nguy cơ xảy ra va chạm, bởi vì băm dĩ nhiên là đại diện cho hình ảnh được đơn giản hóa rất nhiều, nhưng thật ngạc nhiên là ai đó có thể tạo ra hình ảnh nhanh như vậy.
Sự cố ý va chạm ở đây chỉ là một bằng chứng về khái niệm.Các nhà phát triển không có quyền truy cập vào cơ sở dữ liệu băm CSAM, cơ sở dữ liệu này sẽ yêu cầu tạo ra các kết quả dương tính giả trong hệ thống thời gian thực, nhưng nó chứng minh rằng về nguyên tắc các cuộc tấn công va chạm là tương đối dễ dàng.
Apple đã xác nhận một cách hiệu quả rằng thuật toán là cơ sở của hệ thống của riêng họ, nhưng nói với bo mạch chủ rằng đây không phải là phiên bản cuối cùng.Công ty cũng tuyên bố rằng họ không bao giờ có ý định giữ bí mật.
Apple đã nói với Motherboard trong một email rằng phiên bản được người dùng phân tích trên GitHub là phiên bản chung chung, không phải phiên bản cuối cùng được sử dụng để phát hiện iCloud Photo CSAM.Apple cho biết họ cũng tiết lộ thuật toán.
“Thuật toán NeuralHash [...] là một phần của mã hệ điều hành đã ký [và] các nhà nghiên cứu bảo mật có thể xác minh rằng hành vi của nó phù hợp với mô tả,” một tài liệu của Apple viết.
Công ty tiếp tục cho biết còn hai bước nữa: chạy hệ thống đối sánh thứ cấp (bí mật) trên máy chủ của chính mình và xem xét thủ công.
Apple cũng tuyên bố rằng sau khi người dùng vượt qua ngưỡng 30 trận đấu, một thuật toán không công khai thứ hai chạy trên máy chủ của Apple sẽ kiểm tra kết quả.
“Hàm băm độc lập này được chọn để loại bỏ khả năng NeuralHash sai khớp với cơ sở dữ liệu CSAM được mã hóa trên thiết bị do sự can thiệp bất lợi của các hình ảnh không phải CSAM và vượt quá ngưỡng đối sánh.”
Brad Dwyer của Roboflow đã tìm ra một cách để dễ dàng phân biệt giữa hai hình ảnh được đăng tải như một bằng chứng về khái niệm cho một cuộc tấn công va chạm.
Tôi tò mò muốn biết những hình ảnh này trông như thế nào trong CLIP của một công cụ giải nén tính năng thần kinh tương tự nhưng khác OpenAI.CLIP hoạt động tương tự như NeuralHash;nó lấy một hình ảnh và sử dụng mạng nơ-ron để tạo ra một tập hợp các vectơ đặc trưng ánh xạ đến nội dung của hình ảnh.
Nhưng mạng của OpenAI thì khác.Nó là một mô hình chung có thể ánh xạ giữa hình ảnh và văn bản.Điều này có nghĩa là chúng ta có thể sử dụng nó để trích xuất thông tin hình ảnh mà con người có thể hiểu được.
Tôi chạy hai hình ảnh va chạm ở trên qua CLIP để xem nó có bị đánh lừa hay không.Câu trả lời ngắn gọn là không.Điều này có nghĩa là Apple sẽ có thể áp dụng mạng trích xuất tính năng thứ hai (chẳng hạn như CLIP) cho các hình ảnh CSAM được phát hiện để xác định xem chúng là thật hay giả.Việc tạo ra các hình ảnh đánh lừa hai mạng cùng một lúc sẽ khó hơn nhiều.
Cuối cùng, như đã đề cập trước đó, các hình ảnh được xem xét thủ công để xác nhận rằng chúng là CSAM.
Một nhà nghiên cứu bảo mật nói rằng rủi ro thực sự duy nhất là bất kỳ ai muốn làm phiền Apple có thể cung cấp thông tin dương tính giả cho người đánh giá.
“Apple thực sự đã thiết kế hệ thống này, vì vậy hàm băm không cần phải giữ bí mật, bởi vì điều duy nhất bạn có thể làm với'non-CSAM as CSAM 'là làm phiền đội phản hồi của Apple bằng một số hình ảnh rác cho đến khi họ triển khai các bộ lọc để loại bỏ Nicholas Weaver, nhà nghiên cứu cấp cao tại Viện Khoa học Máy tính Quốc tế tại Đại học California, Berkeley, nói với Motherboard trong một cuộc trò chuyện trực tuyến.
Quyền riêng tư là một vấn đề ngày càng được quan tâm trong thế giới ngày nay.Thực hiện theo tất cả các báo cáo liên quan đến quyền riêng tư, bảo mật, v.v. trong nguyên tắc của chúng tôi.
Ben Lovejoy là một nhà văn kỹ thuật người Anh và biên tập viên EU cho 9to5Mac.Ông nổi tiếng với các chuyên mục và các bài viết nhật ký, khám phá trải nghiệm của mình với các sản phẩm Apple theo thời gian để có những đánh giá toàn diện hơn.Anh ấy cũng viết tiểu thuyết, có hai bộ phim kinh dị kỹ thuật, một vài bộ phim khoa học viễn tưởng ngắn và một bộ phim hài lãng mạn!


Thời gian đăng: 8-20-2021