ROS2 프로젝트 4

[프로젝트2] LLM 과 Gazebo를 활용한 Mobile robot 주행 control (+VLM과 Yolo Image Detection)

전에 작성했던 글, [우크라이나 전쟁에서 얻는 국방 아이디어] 의 연장선으로, 자연어를 활용하여 로봇을 제어하고 이를 통해 전장 상황 인식에서 우위를 점할 수 있는 법에 대해 고민해 보았다. 그리고 이러한 아이디어를 직접 구현해보고자 하는 싶은 욕구에 이런저런 논문과 오픈소스 github을 둘러보니 ROS-LLM이라는 논문과 Github 링크에서 turtlesim을 제어할 수 있는 코드를 발견하였고 이를 기반으로 코드를 수정하여 Gazebo에서 LLM과 자연어를 활용하여 간단한 Mobile robot 주행이 가능케 하였다. LLM은 ChatGPT 3.5 를 활용하였고, SLAM (SImultaneous Localization and Mapping) 은 적용하지 않았다.  주행 테스트 실험 영상   초기에..

[프로젝트1] LLM 과 ROS2를 결합한 Turtlesim 컨트롤 (3)

이번 편에서는 다양한 자연어 명령을 입력해보고서 ROS-LLM 패키지의 코드와 process를 분석하고자 한다.   8 자 모양으로 움직여.  아쉽게도 turtlebot은 8자 모양으로 움직이지 않고, 그냥 원을 만들며 빙글빙글 돈다.  move forward 느릿느릿하게 앞으로 나아간다.   reset the turtle reset하지 않고 그냥 제자리에 있는다.  move to the center of the map  갑자기 급발진하며 벽에 부딪쳤다.   Go back to where turtle came from   그래도 왔던 곳으로 되돌아가는 경향을 보이기도 하지만 안되는 경우도 있음.   move forward for 1~5 seconds  이러한 명령어를 주고서 move backward라고 ..

[프로젝트1] LLM 과 ROS2를 결합한 Turtlesim 컨트롤 (2)

LLM을 활용한 Robot 제어 논문을 찾아보던 중, ROS-LLM 이라는   github link : https://github.com/Auromix/ROS-LLM/tree/ros2-humble  GitHub - Auromix/ROS-LLM: ROS-LLM is a framework designed for embodied intelligence applications in ROS. It allows natural languROS-LLM is a framework designed for embodied intelligence applications in ROS. It allows natural language interactions and leverages Large Language Models (LLM..

[프로젝트1] LLM 과 ROS2를 결합한 Turtlesim 컨트롤 (1)

Intro    현재 국방혁신 4.0 에서도 명시하듯,  [유무인 협업] (Manned-Unmanned Teamming) 기술의 중요성을 백분 강조하고 있다.  아직까지 현재 훈련 및 로봇 협업 단계는 인간이 컨트롤러로 조종하는 단계에 불과하다.    우크라이나 전투 영상을 보고서 드론을 어떻게 더욱 효과적으로 사용할 수 있을지 생각해 봄.   LLM 과 결합하여 드론 control 을 하면 전투원의 생존 가능성 및 전투 능력을 더욱 높일 수 있지 않을까 생각이 듬.  요즘, LLM 을 활용하여 Robot control 에 대한 논문이 조금씩 등장하고 있는 추세. 다만 복잡한 Task에 대해서는 가능성과 potential에 대해서만 언급하고 있음.  차근차근 Simple task 부터 complex ta..