Sau tai nạn chết người của Uber, Google khẳng định: Nếu là chúng tôi, tai nạn đã không xảy ra
Giám đốc điều hành John Krafcik của Waymo – phân nhánh xe tự lái của Google tự tin cho rằng các dòng xe họ phát triển sẽ không phạm phải sai lầm chết người mà Uber vừa gặp phải.
"Vụ việc xảy ra tại Arizona vừa rồi là một thảm họa tồi tệ", ông Krafcik chia sẻ với tờ Forbes. "Tôi tự tin rằng các dòng xe tự lái mà mình phát triển có thể xử lý những tình huống như vậy tốt hơn".
"Không phải ngẫu nhiên mà tôi có thể đưa ra tuyên bố như vậy. Những trường hợp xấu như vừa rồi chính là lý do chúng tôi phải phát triển kỹ lưỡng hệ thống của mình".
Ông Krafcik trải lòng về tai nạn vừa qua liên quan tới xe tự lái của Uber tại buổi họp báo do Hiệp hội các đại lý xe tại Mỹ NADA tổ chức tại Las Vegas giữa tuần rồi.
Chỉ vì sự việc xảy ra với Uber, hàng loạt tập đoàn toàn cầu đang nghiên cứu công nghệ tự lái đã bị ảnh hưởng, trong đó nổi bật là GM, Ford, Lyft, Aptiv, Tesla, Baidu, Toyota, Nissan và Volvo. Dù vậy, thương hiệu dẫn đầu là Google (với Waymo) đã sở hữu kinh nghiệm dày dạn từ năm 2009 và lượng dữ liệu thực tế khổng lồ (với hơn 5 triệu dặm chạy thử) có vẻ như không mấy suy suyển.
Có thể nói tai nạn của Uber là trường hợp hiếm hoi khi cả người và máy đều phạm lỗi. Trong khi người điều khiển an toàn ngồi trước tay lái không tập trung thì cả hệ thống radar và LIDAR trên xe cũng hoàn toàn không nhận diện được nạn nhân dù bà đã dắt xe băng ngang qua 3 làn đường trước mặt.
Chiếc Volvo XC90 thuộc Uber gây tai nạn đang bị "soi" từng milimét bởi các nhà chức trách.
Theo thông tin thêm từ Forbes, các tài liệu nội bộ thuộc Uber cho thấy các dòng xe của họ đã gặp nhiều vấn đề và "chưa theo kịp tiến độ kỳ vọng" từ trước khi tai nạn này xảy ra. Dù vậy phân nhánh xe tự lái của họ vẫn cố chạy thử xe trong điều kiện thực tế với hy vọng có thể "gây ấn tượng" trước ban lãnh đạo Uber. Một số lỗi cơ bản mà xe tự lái Uber gặp phải là khó khăn khi di chuyển trong các công trường hay đi bên cạnh các dòng xe có chiều cao lớn như xe bồn.
NỔI BẬT TRANG CHỦ
-
Mô hình toán học của MIT cho thấy: Sự "ba phải" của AI như ChatGPT đang cuốn người dùng vào vòng xoáy hoang tưởng
Một nghiên cứu từ MIT chỉ ra rằng các chatbot “quá chiều người dùng” có thể vô tình đẩy họ vào vòng xoáy niềm tin sai lệch. Ngay cả những người suy luận lý trí cũng không hoàn toàn miễn nhiễm trước cơ chế này.
-
Mới xuất hiện trên giấy tờ, thuật toán của Google đã được một coder tái tạo chỉ trong 7 ngày