발표 및 스탭 안내

발표자 이름을 클릭하면 상세 정보를 볼 수 있습니다.

오전 세션

10:00 - 10:40
최성준 고려대학교 인공지능학과
Human-centered physical intelligence
최성준

발표자 소개

고려대학교 인공지능학과

발표 내용

Recent advancements in large language models and vision-language models have opened up new possibilities for human-centered robotics. This presentation aims to explore the potential of these cutting-edge technologies in enhancing human-robot interaction and enabling robots to better serve human needs. Firstly, we will see the rapid development of humanoid robots and their potential to replace human labor in various domains. Secondly, we will see the integration of artificial intelligence techniques with these humanoid robots to facilitate their deployment in everyday life scenarios. Furthermore, I will showcase our laboratory's ongoing research projects including utilizing Vision Language Models (VLMs) for human-robot interaction, combining VLMs with simulators, and developing robot agents with distinct personas.

10:40 - 11:20
이현종 Roboworks / Makeware
로봇 제어를 위한 AI 인터렉션 UI/UX 시스템과 로봇서비스
이현종

발표자 소개

Roboworks / Makeware

발표 내용

Physical AI 시대, 인공지능 기반 사용자 인터페이스와 로봇 제어 기술을 융합하여 실제 산업·서비스 현장에서 활용 가능한 지능형 로봇 시스템 및 서비스 소개

11:20 - 12:00
최수환 RLWRLD(리얼월드)
Physical AI 글로벌 트렌드
최수환

발표자 소개

RLWRLD(리얼월드)

발표 내용

Physical AI 개론 및 글로벌 트렌드 소개

발표 자료 : 비공개

12:00 - 13:00 점심 시간

오후 세션 1

13:00 - 13:35
권태윤 마음AI, 서울대학교
Physical AI Guardrails for Real-World Humanoid Robots
권태윤

발표자 소개

마음AI, 서울대학교

발표 내용

Physical AI 시대가 현실로 다가오면서, 휴머노이드 로봇을 위한 가드레일의 중요성이 점점 커지고 있습니다. 이 발표에서는 현재 제가 연구 중인 Physical AI 가드레일에 대해 소개하고, 그 다음 단계에 대해 함께 고민해보고자 합니다.

13:35 - 14:10
현청천 주식회사 위드알엘
MuJoCo 기반 LLM Agent를 이용한 Panda-Omron 모바일 매니퓰레이터 제어 시스템
현청천

발표자 소개

주식회사 위드알엘

발표 내용

MuJoCo 기반 LLM Agent를 이용한 Panda-Omron 모바일 매니퓰레이터 제어 시스템에 대한 발표입니다.

14:10 - 14:45
차금강 CMES
Detect Anything, Token by Token: The Perception with LLM-based VLMs
차금강

발표자 소개

CMES

발표 내용

LLM 기반 VLM을 활용한 인지 기술에 대한 발표입니다.

14:45 - 15:00 쉬는 시간

오후 세션 2

15:00 - 15:35
송치성 mpWAV
쓰지 말고 말하세요: SLM(Speech Language Model)이 바꾸는 음성 AI
송치성

발표자 소개

mpWAV

발표 내용

AI야, 왜 아직도 말귀를 못 알아들어? 기존 음성 AI는 ASR→LLM→TTS를 거치며 톤, 감정, 망설임 같은 정보를 잃고, 응답도 느립니다. Speech Language Model(SLM)은 음성을 직접 이해하고 생성해 이 문제를 해결합니다. 본 발표에서는 SLM의 원리부터 SLM을 활용한 라이브 데모까지 다룹니다.

15:35 - 16:10
저스틴 유 Microsoft
에이전트 프레임워크가 라즈베리 파이를 만났을 때
저스틴 유

발표자 소개

Microsoft

발표 내용

라즈베리 파이를 로봇이라고 가정한다면, AI와 상호작용할 수 있는 방법은 크게 두가지가 될 겁니다. 직접 로컬 LLM을 설치해서 쓰거나, 인터넷을 이용해 외부의 LLM을 호출해서 쓰거나. 이번 세션에서는 이 두 가지 방법을 Ollama, Microsoft Agent Framework, AG-UI 등을 활용해서 가능성을 알아보도록 하겠습니다.

16:10 - 16:25 쉬는 시간

오후 세션 3

16:25 - 17:00
민형기 핑크랩
대화를 알아 듣는 로봇 만들기 - 자연어를 알아듣는 로봇
민형기

발표자 소개

핑크랩

발표 내용

작은 로봇에 감정표현, 행동 등을 사람들이 사용하는 자연어를 알아듣고 행동하도록 하기 위한 작업들을 진행하면서 느낀 점을 공유하고 싶습니다. 로봇이 '눈치'라는 것을 가지게 하려면 아직도 먼 이야기인것 같지만, 그래도 작은 소상공인에 가까운 저희 핑크랩이 진행했던 일들을 소소하게 이야기하고 싶습니다.

17:00 - 17:35
안상선 엠로보
잘 못들었습니다... 불완전한 텍스트 명령을 극복하는 로봇의 강화학습 및 베이지안 추론
안상선

발표자 소개

엠로보

발표 내용

텍스트 기반 명령 인식 시스템에서 발생하는 불완전한 입력 상황을 지능적으로 처리할 수 있는 로봇 시스템 개발

스탭 소개

송영숙
송영숙
송치성
송치성
박신홍
박신홍
이여원
이여원
송명근
송명근
이도희
이도희
박조은
박조은
박혜웅
박혜웅