Một nhóm sinh viên đến từ Berkeley đã chứng mình rằng tin tặc có thể cài các mã lệnh ẩn nguy hiểm vào Siri, Google Assistant và Alexa dưới dạng bài hát hoặc bản ghi âm tưởng chừng như vô hại. Đơn giản đến nỗi chỉ cần kẻ tấn công mở một bài hát, phát trực tuyến bản ghi âm hoặc podcast, chúng đã có thể nắm quyền kiểm soát toàn bộ thiết bị thông minh trong ngôi nhà của bạn.

    Theo tờ New York Times báo cáo rằng các nghiên cứu về ứng dụng hỗ trợ giọng nói thông minh đã bắt đầu từ năm 2016.

    “Trong hai năm qua, các nhà nghiên cứu ở Trung Quốc và Hoa Kỳ đã bắt đầu chứng minh rằng họ có thể gửi các lệnh ẩn không thể phát hiện được vào thiết bị thu âm cho Siri của Apple, Alexa của AmazonGoogle Assistant. Bên trong phòng thí nghiệm tại trường đại học, các nhà nghiên cứu đã có thể bí mật kích hoạt các hệ thống trí tuệ nhân tạo trên điện thoại thông minh và loa thông minh, khiến chúng có thể quay số điện thoại hoặc tự động mở trình duyệt web. Trong tay kẻ xấu, công nghệ này có thể được sử dụng để mở khóa cửa, két sắt hoặc mua hàng trực tuyến với đơn giản chỉ bằng bài hát phát qua radio”.

    Các mã lệnh ẩn được đưa vào Google Assistant khiến thiết bị tự động mở trình duyệt mà không thông báo cho người dùng.
    Các mã lệnh ẩn được đưa vào Google Assistant khiến thiết bị tự động mở trình duyệt mà không thông báo cho người dùng.

    Các nghiên cứu năm 2016 đã chứng minh lệnh đưa vào ẩn trong tiếng ồn trắng (white noise), nhưng các sinh viên có thể thực hiện điều tương tự trong bài hát và bản ghi âm.

    “Bằng cách sử dụng thay đổi nhỏ trong tập tin âm thanh, các nhà nghiên cứu đã có thể hủy bỏ âm thanh mà hệ thống nhận dạng giọng nói được cho là đã nghe và thay thế bằng với âm thanh được tạo ra bằng mã lệnh. Họ ẩn đi lệnh “OK Google, duyệt đến evil.com” để người dùng không thể phát hiện thiết bị đang tự hoạt động.

    Nhóm Berkeley cũng đã nhúng lệnh cho các tệp nhạc, bao gồm một clip dài bốn giây từ “Requiem” của Verdi”.

    Kỹ thuật tương tự đã được chứng minh bằng cách sử dụng tần số siêu âm.

    “Các nhà nghiên cứu tại Đại học Princeton và Đại học Chiết Giang của Trung Quốc đã chứng minh rằng hệ thống nhận dạng giọng nói có thể được kích hoạt bằng cách sử dụng tần số không thể nghe đến tai người. Cuộc tấn công đầu tiên tắt tiếng điện thoại để chủ sở hữu cũng không nghe thấ phản hồi của hệ thống”.

    Các nhà nghiên cứu Berkeley nói rằng không có dấu hiệu cho thấy dấu hiệu của phương pháp tấn công này xuất hiện bên ngoài, nhưng điều đó không phải là không có khả năng.

    Nicholas Carlini, sinh viên bảo mật máy tính tại UC Berkeley và là một trong những tác giả của bài báo nói rằng không có bằng chứng cho thấy những kỹ thuật này đã rời khỏi phòng thí nghiệm, nhưng đó chỉ là vấn đề thời gian trước khi có ai đó bắt đầu khai thác chúng. Giả định của anh ấy ám chỉ đến việc tin tặc sử dụng phương thức ấy tấn công người dùng”.

    Muốn gửi mã lệnh cho Siri, người dùng trước hết phải mở khóa thiết bị iPhone và iPad.
    Muốn gửi mã lệnh cho Siri, người dùng trước hết phải mở khóa thiết bị iPhone và iPad.

    Apple nói rằng Siri có những thiết lập bảo mật để hạn chế các cơ hội thực hiện kiểu tấn công này.

    “Apple cho biết loa thông minh HomePod được thiết kế để ngăn chặn các lệnh như mở khóa cửa cũng như việc phải mở khóa iPhone và iPad trước khi yêu cầu Siri thực hiện các lệnh truy cập dữ liệu quan trọng hoặc mở ứng dụng và trang web”.

    Chia sẻ.