본문 바로가기

연구19

Intprim Train and Test Intprim 프레임워크는 observed agent와 controlled agent의 interaction을 학습하기 위한 것이다. observed(leading) agent는 UR5l로, 인터랙션을 이끈다. 즉, 트래잭토리가 고정되어있다. controlled agent는 UR5c로, 프레임워크에 의해 컨트롤된다. 즉, inference를 받아 UR5l에 상대적으로 움직인다. 학습과 테스트는 아래 과정으로 진행된다. 1. 둘의 인터랙션 상황에서 trajectory collect (rosbag) 2. bag -> csv 변환 3. csv 파일로 트레이닝해서 bip 파일과 noise 파일 생성 4. 생성한 bip와 noise만 있으면 시뮬레이션에서 테스트됨 CoppeliaSim 관련 자료는 아래 링크에서 .. 2021. 1. 6.
Intprim 디렉터리 수정 및 모듈 설치, 테스트 먼저, parameter 파일에 있는 path를 내 로컬 디렉토리에 맞게 수정해야 한다. 아래처럼 바꿨다. interaction.yaml 파일도 바꿔준다. 다음으로는 test 폴더를 생성한 뒤 intprim_framework_ros/docs/tutorials/ 에 있는 start_coppelia.sh 와 tutorial_world.ttt를 테스트 폴더로 옮겨왔다. parameter와 관련된 폴더도 생성해준다. 디렉토리를 다 수정하고 나면, 터미널 두개에서 각각 coppelia sim과 intprim interaction application을 각각 실행해야한다. $ ./start_coppelia.sh $ roslaunch intprin_framework_ros interaction_application... 2020. 12. 30.
human robot interaction 학습을 위한 intprim framework 설치 몇달 전에 아래 화면처럼 Coppelia sim에 쿠카 이바도 넣어서 인트프림 테스트까지 마쳐놨었는데, 파이썬 버전이 꼬여서인지 실행이 되지 않아서 콘다 환경에서 다시 테스트 하게 되었다. Intprim은 아래 링크에서 제공되는, hri 학습을 위한 프레임워크이다. github.com/ir-lab/intprim ir-lab/intprim Interaction Primitives library. Contribute to ir-lab/intprim development by creating an account on GitHub. github.com Intprim library는 python 2.7에서 build and test 되었다고 하니 파이썬 2.7로 콘다 환경을 만든다. $ conda create -.. 2020. 12. 30.
역강화학습 IRL (Inverse Reinforcement Learning) RL method의 limitation은 real world상황에서 쓰기 어렵다는 점이다. IRL은 다양한 상황에서도 최적 policy를 찾을 수 있어서 요새 활발히 연구되고 있는 것 같다. IRL을 들여다보던 중, 2019년 12월에 발행된 ETRI의 역강화학습 기술 동향 페이퍼를 찾았다. 이상광, 김대욱, 장시환, 양성일. (2019). 역강화학습 기술 동향. [ETRI] 전자통신동향분석, 34(6), 100-107. ettrends.etri.re.kr/ettrends/180/0905180009/ 역강화학습 기술 동향 강화학습(RL: Reinforcement Learning)에서는 에이전트(agent)가 어떤 상태(state)에서 행동(action)을 수행할 때마다 그 성능에 대한 피드백을 제공하는 .. 2020. 12. 15.
머신러닝 공부를 본격적으로 해보자 머신러닝의 학습 방법에 따른 분류 1. Supervised Learning: 정답이 주어짐 ex) 이미지 인식, 음석 인식 2. Unsupervised Learning: 정답이 주어지지 않음 ex) 입력 데이터의 자동 분류 3. Reinforcement Learning: 답이 아닌 reward가 주어짐 ex) Q학습, DQN 머신러닝 방법의 원리에 따른 분류 (대상으로 하는 문제를 한정하지는 않는다) 1. 기호처리: 기호 처리, 기호 조작 기술을 기초로 한 학습방법 ex) 귀납 학습, 교시 학습, 진화연산 등 2. 통계적 처리: 학습 데이터를 확률적인 데이터라 가정하고 이를 중심으로 수학적 처리를 시행하여 학습하는 방법 ex) 통계적 방법(회귀분석, 클러스터분석, 주성분 분석 등), 신경망, 딥러닝 인공.. 2020. 11. 13.
RA-L 저널의 Impact Factor 올 해 7월에 확인한 IF다~ 랄페이퍼 임팩 펙터가 이렇게 높다니~~~~ ICRA RA-L이든 그냥 RA-L이든 하나 더 쓰고 졸업할 수 있으면 좋겠다. 2020. 11. 8.
반응형