Sự thay đổi này là một phần trong bản thử nghiệm hệ điều hành mới của Apple dành cho người dùng ở Australia ra mắt vào ngày 24/10. Đây là một trong những biện pháp mới nhằm đảm bảo an toàn trong giao tiếp cho người dùng dưới 13 tuổi, được mặc định cài đặt từ iOS 17. Theo tính năng an toàn hiện tại, iPhone sẽ tự động phát hiện hình ảnh và video chứa nội dung khỏa thân nhạy cảm mà trẻ em có thể nhận được hoặc qua iMessage, AirDrop, FaceTime và ứng dụng Ảnh. Việc phát hiện này bảo vệ quyền riêng tư cho người dùng trên các thiết bị di động của hãng.
Khi những hình ảnh nhạy cảm bị phát hiện, người dùng sẽ thấy hai màn hình cảnh báo trước khi có thể thực hiện thao tác tiếp theo, đồng thời nhận được đề xuất hỗ trợ liên lạc với phụ huynh hoặc người giám hộ.
Với tính năng mới, người dùng sẽ có thể báo cáo những hình ảnh và video nhạy cảm đến Apple. Thiết bị sẽ chuẩn bị một báo cáo chứa các hình ảnh hoặc video cùng với tin nhắn được gửi ngay trước và sau đó. Đồng thời, báo cáo sẽ bao gồm thông tin liên lạc của cả hai tài khoản, và người dùng có thể điền vào một biểu mẫu để mô tả những gì đã xảy ra.
Apple sẽ xem xét những báo cáo nhận được và có thể thực hiện những hành động đối với tài khoản như vô hiệu hóa khả năng gửi tin nhắn qua iMessage, hoặc trình báo vấn đề cho cơ quan có thẩm quyền.
Hãng này cũng cho biết tính năng sẽ được triển khai tại Australia đầu tiên trong bản cập nhật beta mới nhất, sau đó sẽ có kế hoạch phát hành ở thị trường toàn cầu trong tương lai.
Thời điểm công bố cũng như việc chọn Australia là khu vực đầu tiên triển khai tính năng mới đồng nghĩa với việc các quy tắc mới sẽ có hiệu lực. Đến cuối năm 2024, các tập đoàn công nghệ ở Australia sẽ phải giám sát nội dung lạm dụng trẻ em và khủng bố trên các đám mây và dịch vụ nhắn tin hoạt động tại đây.
Apple cũng cảnh báo rằng bản dự thảo của quy tắc mới sẽ không bảo vệ được mã hóa đầu cuối, khiến việc liên lạc của tất cả người dùng dễ bị theo dõi hàng loạt. Ủy viên của eSafety đã nới lỏng luật, cho phép các công ty tin rằng việc này sẽ phá vỡ mã hóa đầu cuối để đề xuất các biện pháp thay thế, xử lý nội dung lạm dụng trẻ em và khủng bố.
Hãng này đã phải đối mặt với nhiều chỉ trích gay gắt từ các cơ quan quản lý và thực thi pháp luật trên toàn cầu về việc công ty không muốn hy sinh mã hóa đầu cuối trong iMessage cho mục đích pháp luật. "Gã khổng lồ" công nghệ này còn gây thêm nhiều tranh cãi khi từ bỏ kế hoạch quét ảnh và video được lưu trữ ở iCloud để tìm Tài liệu lạm dụng Tình dục Trẻ em (CSAM) vào cuối năm 2022. Apple, WhatsApp và các bên ủng hộ mã hóa cho rằng bất kỳ lỗ hổng nào trong mã hóa đều đe dọa quyền riêng tư của người dùng.
Hiệp hội quốc gia ngăn ngừa nạn ngược đãi thiếu nhi (NSPCC) của nước Anh đã cáo buộc Apple đánh giá thấp tần suất xuất hiện của CSAM trong các sản phẩm của họ.
Theo báo cáo của Trung tâm quốc gia về trẻ em mất tích và bị lạm dụng (NCMEC), Apple chỉ báo cáo 267 trường hợp nghi ngờ CSAM trên nền tảng của họ trong năm 2023, con số này thấp hơn nhiều so với các ông lớn khác cùng ngành. Theo báo cáo, Google có hơn 1,47 triệu trường hợp, trong khi đó con số ở Meta là hơn 30,6 triệu.