Một vụ tai nạn hy hữu của xe Tesla trên đường cao tốc khi đâm phải một con nai mà hệ thống lái tự động Full Self-Driving (FSD) không hề phản ứng đã thu hút sự chú ý của cộng đồng mạng và đặt ra câu hỏi lớn về độ tin cậy của công nghệ này.
Theo chia sẻ từ tài xế, FSD đã không phát hiện và tránh được con nai, dù trước đó hệ thống liên tục cảnh báo các chướng ngại không tồn tại trên đường. Điều này gây lo ngại về khả năng nhận diện và phản ứng của công nghệ tự lái trong điều kiện ánh sáng yếu hoặc khi đối mặt với vật thể di chuyển bất ngờ.
Vấn đề an toàn của FSD không phải là điều mới mẻ. Trong nhiều năm qua, Tesla đã đối mặt với nhiều vụ kiện và thu hồi hàng triệu xe do sự cố từ Autopilot, phiên bản trước của FSD.
Đặc biệt, Cục An toàn Giao thông Đường cao tốc Quốc gia Mỹ (NHTSA) đã mở cuộc điều tra và yêu cầu Tesla cập nhật phần mềm sau hàng loạt vụ tai nạn, thậm chí có vụ dẫn đến tử vong. Điều này gây thiệt hại không nhỏ cho hãng xe khi phải liên tục bồi thường và điều chỉnh hệ thống.
Mặc dù Elon Musk đã nhiều lần khẳng định hệ thống tự lái của Tesla có thể thay thế người lái, các chuyên gia vẫn cho rằng sự phụ thuộc quá nhiều vào camera sẽ gặp nhiều hạn chế.
Nhiều hãng xe khác đã sử dụng công nghệ radar hoặc lidar để tăng khả năng nhận diện và phát hiện chướng ngại vật trong điều kiện khắc nghiệt, nhưng Tesla vẫn chọn chỉ dùng camera, gây khó khăn trong các tình huống như sương mù, trời tối hoặc vật thể di chuyển nhanh.