Apple tin tức - Kế hoạch quét ảnh của Apple trên điện thoại iPhone ở Hoa Kỳ

23-08-2021

[Chuyên mục] APPLE TIN TỨC

Tin tức Apple đáng chú ý trong tuần này đối với những người đang sử dụng iPhone tại Hoa Kỳ là Apple đã đưa ra một thông báo rằng họ sẽ quét ảnh iPhone để tìm Tài liệu lạm dụng tình dục trẻ em (CSAM). Đây là một phần sáng kiến ​của Apple - công ty đang hợp tác với chính phủ và thực hiện các thay đổi đối với iCloud, iMessage, Siri và Search.

Tuy nhiên, các chuyên gia bảo mật đang lo lắng về việc giám sát và các nguy cơ rò rỉ dữ liệu. Trước khi xem xét những mối quan tâm đó, chúng ta hãy tìm hiểu xem chính xác thì Apple đang làm gì?

 

Apple tin tức - quét iPhone để tìm hình ảnh CSAM như thế nào?

Một bộ lớn các tính năng để quét CSAM dựa trên các hình ảnh dấu vân tay do Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC) cung cấp.

Apple sẽ quét ảnh iCloud của bạn và xem chúng bằng cơ sở dữ liệu NCMEC để phát hiện xem có bất kỳ hình ảnh CSAM nào không. Khi một bức ảnh được tải lên iCloud, Apple sẽ tạo một “Voucher” mã hóa an toàn mật mã được lưu trữ cùng với bức ảnh đó. Mã này chứa thông tin chi tiết để xác định xem hình ảnh có khớp với các hàm băm CSAM đã biết hay không. Giờ đây, gã khổng lồ công nghệ sẽ không biết về những chi tiết này, trừ khi số lượng hình ảnh CSAM trên tài khoản iCloud của bạn vượt quá một số lượng nhất định.

Hãy nhớ rằng nếu bạn đã tắt đồng bộ hóa iCloud trên điện thoại, thì quá trình quét sẽ không hoạt động.

Đối với iMessage, Apple sẽ thực hiện quét và làm mờ hình ảnh CSAM. Thêm vào đó, khi một đứa trẻ xem một hình ảnh như vậy, cha mẹ sẽ nhận được thông báo về nó để họ có thể có hành động thích hợp.

Nếu một đứa trẻ đang cố gắng gửi một hình ảnh như vậy, chúng sẽ được cảnh báo và nếu chúng tiếp tục, một thông báo sẽ được gửi đến cha mẹ.

Điều quan trọng cần lưu ý là thông báo của cha mẹ sẽ chỉ được gửi nếu trẻ dưới 13 tuổi. Thanh thiếu niên từ 13-17 tuổi sẽ chỉ nhận được thông báo cảnh báo trên điện thoại của chính chúng.

Công ty cũng đang điều chỉnh Siri và Tìm kiếm để cung cấp thêm các tài nguyên liên quan đến CSAM cho phụ huynh và trẻ em. Ngoài ra, nếu ai đó đang thực hiện các tìm kiếm liên quan đến CSAM, Siri có thể can thiệp và đưa ra cảnh báo cho họ về nội dung.

Các chuyên gia đang lo lắng về điều gì?

Tất cả các tính năng của Apple đều có vẻ như nhằm giúp ngăn chặn CSAM và có vẻ như đây là một điều tốt trên giấy tờ.

Tuy nhiên, tổ chức quyền kỹ thuật số Electronic Frontier Foundation (EFF) đã chỉ trích Apple trong một bài đăng và lưu ý rằng việc triển khai của công ty mở ra các cửa hậu tiềm năng trong một hệ thống mã hóa mạnh mẽ khác.

“Nói rằng chúng tôi thất vọng về kế hoạch của Apple là một cách nói quá”, EFF nói thêm. Tổ chức chỉ ra rằng việc quét nội dung bằng cơ sở dữ liệu được xác định trước có thể dẫn đến các trường hợp sử dụng nguy hiểm. Ví dụ: ở một quốc gia nơi đồng tính luyến ái là tội phạm, chính phủ “có thể yêu cầu người phân loại được đào tạo để hạn chế nội dung rõ ràng về LGBTQ +”.

Edward Snowden lập luận rằng Apple đang tung ra một công cụ giám sát hàng loạt và họ có thể quét mọi thứ trên điện thoại của bạn vào ngày mai.

Các tính năng của Apple dành cho CSAM sẽ ra mắt vào cuối năm nay (2021) trong các bản cập nhật cho iOS 15, iPadOS 15, watchOS 8 và macOS Monterey. Tuy nhiên, lợi ích của công ty sẽ là giải quyết các mối quan tâm khác nhau do các nhà nghiên cứu bảo mật và chuyên gia pháp lý đưa ra.

Công ty đã tập hợp lại quan điểm mạnh mẽ về quyền riêng tư trong nhiều năm nay. Hiện tại, công ty đang phải chịu áp lực vì đã thực hiện một bước được cho là chống quyền riêng tư, họ cần tổ chức các cuộc thảo luận với các chuyên gia và sửa chữa hệ thống này. Thêm vào đó, Apple sẽ phải minh bạch về cách các hệ thống này đã hoạt động.

Để cập nhật nhanh nhất các thông tin về thương hiệu hàng đầu này, đừng quên theo dõi chuyên mục Apple tin tức trên trang web & fanpage của Nam Á Store nhé!

(Theo TNW news)

Bình luận