미국 휴머노이드 전문가! 케빈
UCLA 기계공학과 출신, 10년 경력의 로봇 전문가!
UCLA 기계공학과 출신, 10년 경력의 로봇 전문가!
미국사는 '케빈' 의 로보틱스& AIUCLA 기계공학과 출신, 10년 경력의 로봇 전문가! | ![]() |
@SNS
Quick Link
주소 : 서울특별시 강남구 강남대로92길 31 6층
사업자등록번호 : 109-86-34835
대표자 : 동우상
@2025 ROBOTOWN. All rights reserved.
@ROBOTOWN SNS
Service Link
PoC Hub Link
Quick Link
주소 : 서울특별시 강남구 강남대로92길 31 6층 / 메일 : robotown365@gmail.com / 사업자등록번호 109-86-34835 / 대표자 : 동우상
@2025 ROBOTOWN. All rights reserved.
로봇이 백플립을 하는 영상, 멋있죠. 그런데 진짜 중요한 건 “백플립”이 아니라 그걸 현실 로봇에 ‘안전하게’ 배포하는 방법입니다. 이번 콘텐츠는 아마존 로보틱스 연구진(루, MIT 박사)이 말한 내용을 바탕으로, 강화학습(RL)이 왜 실전에서 어렵고, 무엇을 준비해야 실제 로봇이 넘어지지 않는지 핵심만 뽑아 정리했습니다. 결론은 간단합니다. RL은 보상함수만 예쁘게 만든다고 되는 게 아니라, 시뮬→현실( Sim-to-Real ) 파이프라인이 승부처라는 것.
실무에서 가장 많이 터지는 포인트는 3가지입니다. (1) 센서/모터 교정: IMU가 조금만 틀어져도 로봇이 ‘팔 흔드는 것처럼’ 난리 납니다. (2) 토크 현실성: 시뮬에선 가능한 동작도 실제 모터 토크가 받쳐주지 못하면 바로 실패합니다. (3) 제어 주파수 설계: 상위 정책(예: 50Hz)과 하위 토크 명령(예: 500Hz)을 어떻게 나누느냐에 따라 안정성과 반응성이 달라집니다. 여기에 Isaac Lab/Sim으로 대규모 학습을 돌리고, Mujoco 같은 다른 시뮬레이터로 검증(Sim-to-Sim)까지 거치면 “현실 격차”를 훨씬 줄일 수 있습니다. 그리고 인간 동작을 로봇에 옮기는 운동학적 리타겟팅에서는 단순 좌표 맞추기보다, **사람-물체 접촉/관계를 보존하는 방식(인터랙션 메쉬)**이 훨씬 실전적이라는 점도 인상적입니다.
- “실전 적용” 체크리스트
System ID 먼저: 로봇 질량/관성/모터 곡선/IMU 등 기본 파라미터를 최대한 정확히
Domain Randomization: 명목값 주변을 작게 흔들어 현실 격차 대비
현실에서 RL 처음부터는 비추: 시간·비용·파손 리스크 큼 → 시뮬 정책으로 시작
PPO가 많이 쓰이는 이유: 배포 시 분포 변화가 적고 이동/보행에서 안정적
토크 제어는 고난도: 고주파에서 불완전성이 증폭 → 안전장치/보수적 제한 필수
리타겟팅은 “접촉/관계” 보존이 핵심: 관통·미끄러짐 같은 실패 줄이기
최적화 + RL 결합: 최적화로 “엄격 제약 만족하는 고품질 데이터” 만들고 RL 초기화(부트스트랩)
#강화학습 #로봇공학 #Sim2Real #IsaacSim #휴머노이드