발표자 이름을 클릭하면 상세 정보를 볼 수 있습니다.
Recent advancements in large language models and vision-language models have opened up new possibilities for human-centered robotics. This presentation aims to explore the potential of these cutting-edge technologies in enhancing human-robot interaction and enabling robots to better serve human needs. Firstly, we will see the rapid development of humanoid robots and their potential to replace human labor in various domains. Secondly, we will see the integration of artificial intelligence techniques with these humanoid robots to facilitate their deployment in everyday life scenarios. Furthermore, I will showcase our laboratory's ongoing research projects including utilizing Vision Language Models (VLMs) for human-robot interaction, combining VLMs with simulators, and developing robot agents with distinct personas.
Roboworks / Makeware
Physical AI 시대, 인공지능 기반 사용자 인터페이스와 로봇 제어 기술을 융합하여 실제 산업·서비스 현장에서 활용 가능한 지능형 로봇 시스템 및 서비스 소개
라즈베리 파이를 로봇이라고 가정한다면, AI와 상호작용할 수 있는 방법은 크게 두가지가 될 겁니다. 직접 로컬 LLM을 설치해서 쓰거나, 인터넷을 이용해 외부의 LLM을 호출해서 쓰거나. 이번 세션에서는 이 두 가지 방법을 Ollama, Microsoft Agent Framework, AG-UI 등을 활용해서 가능성을 알아보도록 하겠습니다.
핑크랩
작은 로봇에 감정표현, 행동 등을 사람들이 사용하는 자연어를 알아듣고 행동하도록 하기 위한 작업들을 진행하면서 느낀 점을 공유하고 싶습니다. 로봇이 '눈치'라는 것을 가지게 하려면 아직도 먼 이야기인것 같지만, 그래도 작은 소상공인에 가까운 저희 핑크랩이 진행했던 일들을 소소하게 이야기하고 싶습니다.







