ImageAiCon PP
진행중
- Unreal의 ImageAI공부하기
- 알고리즘 관련 강의 학습
사전지식
https://inradestrt.tistory.com/685
강화학습
머신러닝 알고리즘의 3가지 분류 Supervised Learning :인풋 데이터와 그에 대한 정답 쌍(x, y)를 이용해서 학습하는 방법론Unsupervised Learning : 인풋 데이터 (x)만을 이용해서 데이터의 숨겨진 특징을
inradestrt.tistory.com
https://inradestrt.tistory.com/686
MP(Markov Process)
MP(Markov Process)MP는 상태s 와 상태 전이(state trainsition)확률 $ P_{ss'} $ 로 구성된 환경이다. $ MP(Markov Process) = $ 예를 들어 아래 MP(MarkovProcess)는 맑음 $ s_{1} $ 과 흐림 $ s_{2} $ 2가지 상태로 구성된다. M
inradestrt.tistory.com
https://inradestrt.tistory.com/687
강화학습 알고리즘 기초개요
강화학습 알고리즘을 구성하는 요소 기호 시간 t의 상태 $ S_{t} $시간 t의 행동 $ A_{t} $시간 s의 행동 a의 행동 가치 함수 $ Q_{\pi}(s, a) $정책 $ \pi $파라미터 $\ theta $보상 RDiscount Factor $ \gamma $Epsilon Gr
inradestrt.tistory.com
https://inradestrt.tistory.com/688
MRP(Markov Reward Process) & MDP(Markov Decision Process)
MRP(Markov Reward Process) MRP(Markov Reward Process) 는 Markov Process(MP) 에 보상 R과 Discount Factor $ \gamma $ 가 추가된 형태이다. $ MRP(Markov Reward Process) = $ 어떤 상태에 도달함에 따른 보상 R이 주어지고 각각
inradestrt.tistory.com
https://inradestrt.tistory.com/689
Grid-World
Grid-World는 강화학습의 개념을 설명하기 위해 자주 사용되는 대표적인 예제 환경이다. Goal지점이 출구인 미로-그리드월드(Grid World)-에 갖혀있다고 가정하자. 학습가중치의 기본조건은 다음과
inradestrt.tistory.com
결과물 ( 없음 )
진행 예정 작업
- Unreal ImageRetargeting 코드제작
- 언리얼 함수 상으로 지정된 카메라의 타겟뷰를 이미지값으로 저장 반환하는 방식이 존재함.
- TCP방식으로 데이터 통신처리를 진행
- TensorFlow를 사용하여 전달받은 이미지로 학습 알고리즘 연산.
- 연산결과를 다시 언리얼로 전달하여 학습된 데이터를 갱신.
- 4번과 3번을 반복
- 학습결과확인 후 재학습
- 5와 6을 원하는 AI행동패턴이 나타날때까지 반복
목표
- TensorFlow를 사용하여 알고리즘이 동작하는지 직접적인 확인을 진행.
- TensorFlow 를 사용하지 않고, 스스로의 C++코드로 알고리즘 함수 구현부를 직접 제작하여 사용하는것
(파이썬만으로 k means clustering를 구현하였을 때, 구현객체가 C++의 연산처리속도를 따라잡지 못하는 상황이 있었음) - UI관련 제작방식은 C#으로, 함수부는 DLL파일로 포팅하여 언리얼 엔진에 집어넣기.
완료된 작업
Unreal의 ImageAI공부하기
- CNN알고리즘 다시 복기하기
- 알고리즘 선별(DQN)
'작업사항 정리 > UnrealC++' 카테고리의 다른 글
UnrealC++ PP 20240628_10 (0) | 2024.06.28 |
---|---|
UnrealC++ PP 20240626_9 (0) | 2024.06.26 |
UnrealC++ PP 20240621_7 (0) | 2024.06.21 |
UnrealC++ PP 20240618_6 (0) | 2024.06.18 |
UnrealC++ PP 20240614_5 (0) | 2024.06.14 |