Project Soli - nơi Google giúp chúng ta điều khiển thiết bị mà không cần chạm vào chúng (ảnh minh họa).
Nghiên cứu radar
Radar có thể phát hiện chủ thể di chuyển đến gần máy tính hơn và đưa ra các phân tích dựa trên thói quen được cá nhân hóa. Điều này có nghĩa là máy tính có thể chọn thực hiện một số hành động nhất định, chẳng hạn như khởi động màn hình mà không yêu cầu bạn nhấn nút. Loại tương tác này đã tồn tại trong các màn hình thông minh Google Nest hiện tại, thay vì radar, Google sử dụng sóng siêu âm để đo khoảng cách của người và thiết bị.
Nhưng sẽ là chưa đủ nếu các hành động được đưa ra chỉ dựa trên khoảng cách. Điều gì sẽ xảy ra nếu bạn đang ở gần máy tính nhưng đôi mắt lại đang nhìn sang một hướng khác? Để giải quyết vấn đề này, Google đã phát triển công nghệ có tên Soli - một cảm biến có thể sử dụng sóng điện từ của radar để nhận các cử chỉ và chuyển động chính xác. Soli sẽ tinh tế hơn trong việc “quan sát” các cử chỉ, hành động của cơ thể, chẳng hạn như hướng cơ thể và hướng đầu của bạn đang đối mặt. Từ đó máy tính có thể đưa ra các hành động chính xác nhất dựa trên các dữ liệu được ghi nhận.
"Chúng tôi có thể di chuyển theo những cách khác nhau, thực hiện các biến thể khác nhau của chuyển động đó, từ đó có thể ứng biến và xây dựng các phát hiện của chúng tôi trong thực tế”, Lauren Bedal, nhà thiết kế tương tác cấp cao tại ATAP cho biết.
Bedal liệt kê một vài ví dụ về máy tính phản ứng với những chuyển động này. Nếu một thiết bị cảm nhận được bạn đang đến gần, nó có thể kéo các nút điều khiển cảm ứng lên; khi bạn bước lại gần máy tính nó có thể khởi động và đánh dấu các email đến; hoặc khi bạn rời khỏi phòng, tivi có thể đánh dấu lại bạn đang xem dở và tiếp tục từ vị trí đó khi bạn quay lại…
Nếu một thiết bị xác định rằng bạn chỉ đi ngang qua, nó sẽ không làm phiền bạn với các thông báo có mức độ ưu tiên thấp.
“Tất cả những chuyển động này bắt đầu gợi ý về một cách tương tác trong tương lai với máy tính mà cảm giác rất vô hình bằng cách tận dụng những cách tự nhiên mà chúng ta di chuyển, Bedal nói: “chúng đang thúc đẩy giới hạn của những gì chúng tôi cho là khả thi đối với sự tương tác giữa con người và máy tính”.
Thách thức còn ở phía trước?
Bedal đã nhiều lần nhấn mạnh, còn rất nhiều công việc cần phải giải quyết trong giai đoạn nghiên cứu sử dụng radar để tác động đến cách máy tính phản ứng với chúng ta đi kèm với những thách thức. Ví dụ, mặc dù radar có thể phát hiện nhiều người trong một phòng, nhưng nếu các đối tượng ở quá gần nhau, cảm biến sẽ chỉ nhìn thấy đám người như một đốm màu vô định, điều này khiến việc ra quyết định trở nên bối rối.
Nhóm ATAP đã chọn sử dụng radar vì đây là một trong những phương pháp thân thiện với quyền riêng tư hơn để thu thập dữ liệu không gian phong phú. Nó cũng có độ trễ thực sự thấp, hoạt động trong bóng tối và các yếu tố bên ngoài như âm thanh hoặc nhiệt độ không ảnh hưởng đến nó. Không giống như máy ảnh, radar không chụp và lưu trữ các hình ảnh có thể phân biệt được về cơ thể, khuôn mặt của người dùng hoặc các phương tiện khác của nhận dạng.
Một thiết bị với công nghệ mới của ATAP bên trong có thể cảm nhận được bạn đang đến gần và sau đó thay đổi trạng thái của nó dựa trên những gì nó dự đoán bạn có thể muốn làm.
Chris Harrison, một nhà nghiên cứu nghiên cứu tương tác giữa con người và máy tính tại Đại học Carnegie Mellon và là Giám đốc của Future Interfaces Group cho biết, người tiêu dùng sẽ phải quyết định xem họ có muốn đánh đổi quyền riêng tư này hay không - xét cho cùng, Google là “công ty hàng đầu thế giới trong việc kiếm tiền từ dữ liệu của bạn”. Cách tiếp cận không có máy ảnh của Google rất giống quan điểm ưu tiên người dùng và quyền riêng tư. Harrison nói: “Không có gì gọi là xâm phạm quyền riêng tư vì "mọi thứ đều nằm trên một dải quang phổ".
Cuối cùng, Harrison kỳ vọng sẽ thấy các loại tương tác giữa con người và máy tính được cải thiện mà ATAP hình dung trong tất cả các khía cạnh của công nghệ.
Nguồn Báo tin tức