Làm "chuột bạch" cho một thử nghiệm thiếu an toàn
Ở nhiều tập đoàn công nghệ, mời khách hàng thân thiết tham gia một cuộc thử nghiệm beta là phương pháp thường được sử dụng, nhằm củng cố sự tin tưởng của người dùng trước khi khởi chạy sản phẩm.
Trong thử nghiệm Beta, bản dùng thử của sản phẩm sẽ được phát hành cho một số khách hàng dùng thử trong điều kiện thực tế, để xác định và loại bỏ các lỗi và khiếm khuyết còn sót lại.
Bản dùng thử của những phần mềm trên smartphone hay laptop đều được sản xuất đơn giản và tốn ít chi phí, và có thể được phân phối tới hàng triệu người một cách dễ dàng.
Nhìn chung, thử nghiệm beta là một phương pháp tuyệt vời để khách hàng trải nghiệm những điều mới mẻ của phiên bản sắp ra mắt. Ngoài một số trục trặc nhỏ, những phiên bản beta hầu hết đều vô hại với người dùng.
Nhưng điều này không hoàn toàn đúng với các thử nghiệm tính năng lái tự động (Autopilot) được triển khai bởi hãng xe điện lớn nhất thế giới Tesla.
Chế độ Autopilot của Tesla sử dụng phần mềm, radar cảm biến và camera để nhận diện làn đường, những phương tiện và vật thể khác trên đường. Sau khi phát hiện chướng ngại vật, Autopilot có thể giúp xe bẻ lái, phanh, tăng tốc và chuyển làn mà không cần sự tác động của người lái.
Mới đây, phiên bản Autopilot Full-Self Driving (FSD) Beta 9 vừa “ra lò” của Tesla được cho là sẽ hỗ trợ tài xế trong nhiều tình huống phức tạp hơn. Hàng nghìn người đang sở hữu xe hơi của Tesla sẽ được dùng thử Autopilot FSD Beta 9 với mức giá 199 USD/tháng cho gói tháng và 10.000 USD cho gói trọn đời.
Dù vậy, New York Times cho biết, các kỹ sư Tesla thừa nhận với các cơ quan quản lý tại California rằng họ “chưa hoàn toàn sẵn sàng để chính thức công bố Autopilot FSD Beta 9.” Trong một tweet gần đây, Elon Musk cũng xác nhận phiên bản Beta 9 vẫn còn một số điều phải hoàn thiện.
Hình ảnh xung quanh xe hơi được công nghệ Autopilot Full-Self Driving (FSD) Beta 9 mô phỏng lại. (Ảnh: Teslarati.com) |
Trước công chúng, CEO của Tesla thường xuyên cường điệu hoá về hiệu quả của Autopilot. Tháng 1 năm 2021, ông từng tuyên bố rằng “trong năm nay, công nghệ tự động lái của Tesla sẽ vượt qua khả năng lái xe của con người.”
Thế nhưng trong quá khứ, Autopilot chính là nguyên nhân của nhiều vụ tai nạn xe hơi nghiêm trọng.
Theo New York Times, ít nhất ba tài xế lái xe Tesla đã chết kể từ năm 2016. Năm 2019, tiếp tục có 2 người thiệt mạng bởi xe hơi Tesla. Ngày 17/4/2021, 2 người đã thiệt mạng khi chiếc xe Model S 2019 của hãng Tesla đâm vào một gốc cây và bốc cháy. Theo Forbes, vụ tai nạn đã khiến Tesla đã mất gần 6 tỷ USD trên sàn chứng khoán 2 ngày sau đó. Điểm chung của những vụ tai nạn trên là chế độ Autopilot đều đang được kích hoạt trước khi va chạm xảy ra.
Hiện trường 2 vụ tai nạn chết người của xe tự lái Tesla các năm 2018 và 2021. (Ảnh: Reuters) |
Không chỉ vậy, Autopilot còn gặp phải một số trục trặc về kỹ thuật. Website chuyên về xe hơi Jalopnik đưa tin, công nghệ Autopilot của một chiếc Tesla đã nhầm mặt trăng với đèn tín hiệu giao thông. Công nghệ này còn liên quan đến nhiều vụ kiện, bao gồm cả cáo buộc quảng cáo sai sự thật, New York Times đưa tin.
Ngày 29/6/2021, Cục Quản lý An toàn Giao thông Đường cao tốc Mỹ đã yêu cầu một số nhà sản xuất ô tô, trong đó có Tesla, phải thường xuyên báo cáo về những vụ tai nạn do xe hơi sử dụng công nghệ lái tự động gây ra. Cục cũng đang mở cuộc điều tra về 36 vụ tai nạn liên quan đến các phương tiện sử dụng hệ thống hỗ trợ người lái, phần lớn liên quan đến những chiếc Tesla.
New York Times đã mời Tesla bình luận về sự kiện này, nhưng không nhận được phản hồi.
Cần giải pháp an toàn hơn
Theo Greg Bensinger, thành viên trong Ban Biên tập của New York Times, những người đang dùng thử phiên bản Autopilot FSD Beta 9 có thể là nạn nhân của “ngộ nhận trong trị liệu”. Cụ thể, những người tham gia một thử nghiệm bất kỳ có xu hướng bỏ qua những rủi ro tiềm ẩn; họ coi mình là người sử dụng thành phẩm, trong khi thực tế vai trò của họ chỉ là “chuột bạch”.
Tổ chức tiêu dùng phi lợi nhuận của Mỹ Consumer Reports đã đưa ra những cảnh báo nghiêm trọng về sự an toàn của Autopilot FSD Beta 9. “Các video về cách FSD beta 9 hoạt động không cho thấy hệ thống giúp lái xe an toàn hơn, hoặc ít căng thẳng hơn. Người tiêu dùng đang chỉ trả tiền để trở thành những chú chuột bạch cho công nghệ này, mà không có sự bảo đảm chắc chắn nào về an toàn,” Jake Fisher, Giám đốc Trung tâm Kiểm tra ô tô của Consumer Reports cho biết.
Một chiếc xe hơi của Tesla được tích hợp Autopilot Full-Self Driving (FSD) Beta 9. (Ảnh: TechTimes) |
Greg Bensinger còn cho rằng, “chuột bạch” của Tesla không chỉ là những tài xế, mà còn là những phương tiện khác trên đường. Các video thử nghiệm Autopilot FSD Beta 9 trên mạng cho thấy tài xế thường đọc sách, kiểm tra email, rời khỏi ghế hoặc thậm chí là ngủ phía sau tay lái. Những người đi bộ hoặc những phương tiện khác hoàn toàn có thể trở thành nạn nhân, nếu có bất cứ trục trặc nào xảy ra. Ủy ban An toàn Giao thông Vận tải Hoa Kỳ cũng đã chỉ trích công nghệ Autopilot, vì thiếu các tính năng thích hợp để ngăn người lái xe sử dụng sai mục đích công nghệ này.
“Điều đó có thể khiến nhiều người Mỹ lo ngại rằng, đường phố công cộng chẳng khác nào một phòng thí nghiệm cỡ lớn cho công nghệ Autopilot.”
Thực ra, các phương tiện tự lái hứa hẹn sẽ khiến giao thông trở nên an toàn hơn rất nhiều trong tương lai. Như một số chuyên gia về xe hơi của Mỹ đã nói trên New York Times, xe hơi không uống rượu bia rồi tham gia giao thông như con người. Và rất có thể trong tương lai, chúng sẽ quan sát tốt hơn, phản xạ nhanh hơn cả con người trong những tình huống đột ngột. Nhưng ở hiện tại, với những vụ tai nạn chết người kể trên, dường như công nghệ lái tự động vẫn còn một quãng đường dài để chính thức thay thế con người. Do đó, việc cung cấp một phiên bản thậm chí chưa hoàn thiện của Autopilot cho khách hàng có thể vô tình đẩy cao nguy cơ xảy ra tai nạn giao thông.
Một số đối thủ cạnh tranh khác của Tesla như General Motors và Alphabet đang trả lương cho nhân viên của hãng, để họ sử dụng thử những chiếc xe tự động lái trong môi trường công cộng. Không chỉ vậy, họ còn thiết kế xe sao cho người khác có thể dễ dàng nhận ra đó là những “bản dùng thử” để cảnh giác hơn. Greg Bensinger nhận định, đây có thể là một phương pháp mà Tesla có thể học hỏi.
“Nếu Tesla vẫn muốn thử nghiệm xe không người lái với người thật, họ nên thực hiện điều đó với những nhân viên của mình. Như vậy, đa số người tham gia giao thông đều sẽ cảm thấy an toàn hơn một chút.”