Trí tuệ nhân tạo bắt chước giác quan con người

10:24 07/09/2021

Nhóm nhà nghiên cứu Đại học Carnegie Mellon cũng tạo ra cơ sở dữ liệu về âm thanh và hình ảnh được số hóa bằng cách sử dụng mọi loại đồ vật trong nhà, do đó một hệ thống trí tuệ nhân tạo (AI) với chức năng đào tạo tự động có thể xác định chính xác từng âm thanh.

Robot có thể “nhìn thấy” các vật thể trong suốt

Mặc dù robot không có khả năng nhìn như vậy, nhưng có một số robot có hệ thống tia hồng ngoại cho phép chúng xác định một vật thể bằng hình dạng của nó. Robot không phải lúc nào cũng “thông minh” khi đối mặt với các vật thể trong suốt như chai thủy tinh hoặc cốc nhựa, chủ yếu là do cảm biến độ sâu của chúng phản chiếu trên các vật thể này và chỉ có thể chụp được những bóng mờ mơ hồ.

Tuy nhiên, một nhóm nhà nghiên cứu Đại học Carnegie Mellon (Mỹ) gần đây đã cố gắng tạo ra một hệ thống để robot có thể sử dụng những bóng mơ hồ mà chúng chụp được bằng cảm biến để “điền vào” kiến thức của chúng với thông tin bổ sung và tạo hình dạng cho các vật thể trong suốt.

Nhóm nhà nghiên cứu kết hợp cảm biến độ sâu với một máy ảnh tiêu chuẩn ghi lại các sắc thái của màu đỏ, xanh lục và xanh lam trên mọi cạnh của những vật thể trong suốt. Sau đó, họ cải tiến hệ thống để robot có thể nhận ra những dấu hiệu trực quan về màu sắc mà camera chụp được. Do đó, một cánh tay robot sẽ tự động điều chỉnh tay cầm để có thể cầm nắm được vật thể.

Trí tuệ nhân tạo bắt chước giác quan con người -0
Công nghệ cho phép AI tách biệt âm thanh, phân biệt giữa giọng nói và tiếng ồn.

Máy trợ thính “nghe” giọng nói trong tiếng ồn xung quanh

Nhóm nhà nghiên cứu Đại học Carnegie Mellon cũng tạo ra cơ sở dữ liệu về âm thanh và hình ảnh được số hóa bằng cách sử dụng mọi loại đồ vật trong nhà, do đó một hệ thống trí tuệ nhân tạo (AI) với chức năng đào tạo tự động có thể xác định chính xác từng âm thanh. Theo nhóm nhà nghiên cứu, robot có thể xác định những vật thể mà nó không thể nhìn thấy nhưng có thể nghe được tới 750% thời gian.

Các công ty sản xuất máy trợ thính có thể sử dụng công nghệ này để sản xuất ốc tai điện tử. Oticon Inc, một công ty sản xuất máy trợ thính, đang khám phá cách họ có thể chế tạo ốc tai điện tử với mạng lưới thần kinh. Những thiết bị cấy ghép này có các thuật toán, được cung cấp với hàng triệu mẫu giọng nói có và không có tiếng ồn xung quanh, tự động tách giọng nói khỏi tiếng ồn xung quanh. Điều này sẽ cho phép những người bị một số loại khiếm thính có thể lấy lại thính lực của họ.

Robot có thể “ngửi thấy” mùi khí đốt rò rỉ

Aryballe là một công ty phần mềm AI với cảm biến sinh học và hệ thống máy học, bắt chước hệ thống khứu giác của con người. Cảm biến thu nhận các phân tử mùi trong không khí và mã hóa chúng thành dữ liệu. Công nghệ giúp triển khai trường hợp khẩn cấp nếu phát hiện nhanh chóng khí gas rò rỉ.

Sau đó, hệ thống AI sẽ thu thập dữ liệu đó và kết hợp với cơ sở dữ liệu chứa hàng nghìn mùi khác nhau. Sau khi tham chiếu chéo dữ liệu thu thập được với dữ liệu đó trong cơ sở dữ liệu, hệ thống có thể xác định loại mùi đó là gì. Ví dụ, công nghệ này kết hợp với công nghệ tự động tắt lò nướng trước khi thực phẩm bị cháy hoặc nếu phát hiện rò rỉ khí gas.

Trí tuệ nhân tạo bắt chước giác quan con người -0
Robot đôi khi gặp khó khăn trong việc xác định các vật thể trong suốt như chai thủy tinh hoặc cốc nhựa.

Hệ thống “nếm thử” hàng nghìn loại thực phẩm

Gastrograph AI là nền tảng được tạo bởi Analytical Flavor Systems Inc. Nó dự đoán cách mọi người sẽ phản ứng với các sản phẩm thực phẩm mới, cho phép các nhà phát triển và nhà tiếp thị nghiên cứu thị hiếu người tiêu dùng để dự đoán sản phẩm nào được ưa chuộng hơn hoặc từ chối hơn trên một thị trường cụ thể. Hệ thống này sử dụng dữ liệu của hàng nghìn người tiêu dùng đã đánh giá hàng nghìn sản phẩm thông qua ứng dụng dành cho thiết bị di động, chỉ định các thông số và danh mục khác nhau.

AI có thể “cảm nhận” bề mặt

GelSight là công nghệ được phát triển bởi nhóm nhà nghiên cứu Phòng thí nghiệm Khoa học Máy tính và Trí tuệ Nhân tạo MIT. Công nghệ này cho phép robot xác định hình dạng, kích thước và chất liệu của bề mặt bằng cách sử dụng cảm biến cảm ứng, có nghĩa là cảm giác chạm có thể được số hóa với độ chính xác rất cao. Yunzhu Li, nhà nghiên cứu tại MIT, đang nghiên cứu một hệ thống AI có khả năng thiết lập mối quan hệ giữa hình ảnh và sự tiếp xúc của bề mặt.

“Con người phát triển khả năng từ kinh nghiệm trong suốt cuộc đời; mạng lưới thần kinh có thể học nhanh hơn nhiều”, Li nói. Bằng cách thu thập dữ liệu từ hơn 200 đối tượng được chạm hàng nghìn lần bằng cảm biến GelSight, Li đã tạo ra một cơ sở dữ liệu cho AI để lập mô hình phù hợp với dữ liệu trực quan và dữ liệu cảm ứng.

Duy Minh (tổng hợp)