Phòng thí nghiệm máy móc sáng tạo tại Trường Kỹ thuật thuộc Đại học Columbia, Mỹ, đã công bố nghiên cứu mới trên Tạp chí Science Robotics, giới thiệu Emo- một robot trí tuệ nhân tạo (AI) có thể tiên đoán các biểu cảm trên khuôn mặt con người và thực hiện cùng lúc với người đó. Nhóm chuyên gia cho biết, Emo dự đoán nụ cười trong khoảng 840 mili giây trước khi người đối diện cười, sau đó cười cùng lúc.
Nhờ vào sự tiến bộ trong các mô hình ngôn ngữ lớn như ChatGPT, những robot có khả năng giao tiếp thành thạo bằng lời nói dần được ra đời. Tuy nhiên, các kỹ năng giao tiếp phi ngôn ngữ của chúng, đặc biệt là nét mặt, vẫn còn chưa phát triển. Việc thiết kế một robot không chỉ thể hiện được nhiều biểu cảm trên khuôn mặt mà còn biết thể hiện đúng lúc vô cùng khó.
Robot Emo là một bước tiến đáng kể trong giao tiếp phi ngôn ngữ giữa con người và robot. (Ảnh: popsci)
Nhóm nghiên cứu đã sử dụng phần mền trí tuệ nhân tạo (AI) để dự đoán nét mặt con người và tạo ra nét mặt robot tương ứng. Emo sử dụng 26 động cơ, làn da mềm mại và đôi mắt được gắn camera. Vì vậy, nó có thể thực hiện các giao tiếp không lời, như giao tiếp bằng mắt và nét mặt. Emo được trang bị một số mô hình AI bao gồm phát hiện khuôn mặt người, điều khiển bộ truyền động khuôn mặt để bắt chước nét mặt và thậm chí dự đoán nét mặt con người. Điều này cho phép Emo tương tác theo cách cảm thấy kịp thời và chân thực.
Nhóm nghiên cứu phát triển hai mô hình AI. Mô hình thứ nhất dự đoán biểu cảm khuôn mặt người bằng cách phân tích những thay đổi tinh vi trên khuôn mặt đối diện, mô hình thứ hai tạo ra các lệnh vận động bằng cách sử dụng những biểu cảm tương ứng.
Ngoài ra, Emo có thể thể hiện 6 cảm xúc cơ bản như: Tức giận, ghê tởm, sợ hãi, vui vẻ, buồn bã và ngạc nhiên, cũng như một loạt các phản ứng nhiều sắc thái hơn. Điều đó là nhờ vào cơ nhân tạo làm từ dây cáp và động cơ. Emo thể hiện cảm xúc bằng cách kéo các cơ nhân tạo vào các điểm cụ thể trên khuôn mặt.
Để đào tạo robot cách biểu cảm, nhóm nghiên cứu đặt Emo trước camera và để nó thực hiện những cử động ngẫu nhiên. Sau vài giờ, robot học được mối quan hệ giữa biểu cảm khuôn mặt với các lệnh vận động – tương tự cách con người luyện tập biểu cảm khi nhìn vào gương – tương tự với khả năng con người tưởng tượng ra mình trông như thế nào khi thực hiện một số biểu cảm nhất định.
Tiếp theo, nhóm nghiên cứu phát những video về biểu cảm khuôn mặt người để Emo quan sát từng khung hình. Sau quá trình đào tạo kéo dài nhiều giờ, Emo có thể tiên đoán biểu cảm bằng cách quan sát những thay đổi tinh vi của khuôn mặt khi một người bắt đầu có ý định mỉm cười.
Yuhang Hu – nghiên cứu sinh, thành viên nhóm nghiên cứu cho biết, dự đoán chính xác biểu cảm khuôn mặt người là một cuộc cách mạng trong lĩnh vực tương tác người – robot. Trước đây, robot không được thiết kế để xem xét biểu cảm của con người trong quá trình tương tác. Giờ đây, robot có thể tích hợp biểu cảm khuôn mặt để phản hồi. Việc robot thực hiện những biểu cảm cùng lúc với con người theo thời gian thực không chỉ giúp nâng cao chất lượng tương tác mà cũng giúp xây dựng niềm tin giữa con người và robot. Trong tương lai, khi tương tác với robot, nó sẽ quan sát và diễn giải biểu cảm gương mặt của bạn, giống như một con người thực sự.
Nhóm nghiên cứu dự định tích hợp giao tiếp bằng lời nói vào Emo. Điều này sẽ cho phép Emo tham gia vào các cuộc trò chuyện phức tạp và tự nhiên hơn.
CTV