About me
home
Portfolio
home

딥노이드 AI 컨퍼런스, 노코드 경진대회

작성자 : 서울시립대학교 기계정보공학과 김영준

일정 : 2022년 10월 26일(수) 09:00~17:00

장소 : 삼성동 그랜드 인터컨티넬탈 서울 파르나스 5F

주최 : 딥노이드, X4 AI 얼라이언스

주제: 데이터빅뱅시대, 최신 의료-산업 AI 기술과 DT사업, 혁신인재 육성 전략

딥노이드 (DEEP NOID)
사용자 주도 AI 플랫폼(=DEEP:PHI)와 이를 기반으로 한 의료 및 산업 분야에 맞는 AI 솔루션(DEEP:AI)를 제공하는 인공지능 플랫폼 전문기업이다.

컨퍼런스 세미나

오전타임에는 인텔코리아, SK C&C, SEAGATE 등 굵직한 대기업과 여러 AI 스타트업에서 진행하는 AI 프로젝트 및 서비스를 강연하는 자리가 마련되었다.
의료AI, 산업AI, 클라우드, 데이터 스토리지, 블록체인 등 여러 도메인에서의 AI 솔루션을 발표해주셨다. 수많은 산업군에서 AI 기술을 연구를 하고 도입하고 있으며, 여러 기업들이 상호협력하여 하나의 큰 프로젝트를 진행하고 있다는 것도 새롭게 알게 되었다.
강연장 출입문 앞에는 딥파이 노코드를 통해 개발된 최신 의료AI, 산업AI ,교육AI 서비스 등을 직접 체험해 볼 수 있는 전시부스가 진행되어 자유롭게 관람할 수 있었다.

1) X-ray 영상자동판독시스템 항공보안

딥노이드와 한국공항공사에서 공동으로 개발한 AI보안솔루션이다.
공항에서 여행가방을 X-ray로 탑뷰로 촬영하여 총기류, 도검류, 폭발물등 기내 반입 금지 물품을 빠르게 탐지할 수 있다. 딥러닝 모델은 OpenSource가 아닌 자체적으로 구축하였고 데이터셋은 항국공항공사에서 제공해 주었다고 답해주셨다. 이를 통해 높은 정확도를 제공한다고 소개해주셨다. 앞으로는 개선된 버전으로 탑뷰뿐만 아니라 다양한 각도에서 영상을 촬영하여 3D로 이미지 분석모델을 구현해볼 예정이라 하셨다.

2) 인공지능 양품 판독 시스템

이름은 ‘비전딥’으로 제조 현장에서 AI 딥러닝으로 불량을 선별하는 시스템으로 제약 도메인에 쓰이는 시스템을 시연하고 있었다.
불량 유무를 모니터링을 통해 실시간으로 인식하는 시스템이다. 아직 출시 전이고 제약 뿐만 아니라 자동차, 물류 등 당양한 도메인에도 적용 가능하게 개발단계에 있다고 설명해주셨다.
뿐만 아니라
Brain Hemorrhage’: 뇌 CT 영상을 Slice 단위로 뇌출혈 분석 기능을 제공해주는 시스템
AI융합 불법 복제 판독 시스템’ : 앱 방식으로 물체를 촬영하여 기존 모델과 유사도 측정
DEEP:EDU’ : AI 교육이 필요한 분들을 대상으로 제공하는 교육 서비스
등 다양한 부스를 관람할 수 있었다.

노코드 경진대회

점심시간 이후, 오후타임에는 노코드 경진대회에 참가해 노코드 플랫폼인 ‘DEEP PHI’ 실습 교육이 진행되었다.
딥파이 ( DEEP PHI )
딥파이는 초기 의료AI분야를 시작으로 현재는 자동차, 디스플레이, 스마트팩토리등 다양한 산업분야에서 활용되고 있다. 기업에 노코드 플랫폼을 간편하게 구축하고 제품 개발에 활용할 수 있도록 특화된 상품개발과 컨설팅을 지원한다.
딥파이 웹사이트에서 접속하여 로그인을 하면 다음과 같은 화면이 뜨게 된다.
당일에 진행한 여러 실습중 Pothole 분류 딥러닝 모델링 과정을 순차적으로 소개해보겠다.
전체적인 모델링 구축 과정은 3가지로 나뉜다.
1.
Dataset
원하는 데이터셋을 다운받는다. 다양한 Open 데이터셋을 제공해준다. 물론 본인이 가져온 데이터셋을 가져다 쓸 수도 있다.
2.
Processing
전처리 과정에 쓰일 기법들을 선별하고 파라미터 값들을 수정하며 Processing이 진행될 순서를 결정한다.
3.
AI
Classification,Detection, Segmentation 등 제공하는 여러 딥러닝 SOTA 모델들 중 하나를 선별한다.
1.
우선 Potholes Classification 데이터셋을 우측 화면으로 드래그하여 아이콘을 생성한다.
2.
ResizeMin-Max Normalization, Histogram Equalization CLAHE 을 아이콘으로 생성하여 전처리 과정을 순서대로 화살표로 이어 연결한다. 각 processing 단계에서 원하는 파라미터를 수정할 수 있다.
3.
이미지 분류 문제이므로 Classification 2D 카테고리 내에서 원하는 모델을 고른다.
본인은 MobileNetV2를 골라 아이콘으로 생성하여 전처리 과정까지의 아이콘에 이어 화살표를 연결하였다.
4.
RUN 버튼을 눌러 모델을 학습시킨다.
모델의 Class 비율Train, Valid 비율 등을 확인할 수 있고 epoch, batch size, lr, Augmentation 등 다양한 파라미터를 수정할 수 있다.
5.
학습단계에서의 loss와 Accuracy, 다양한 metric 등을 모니터링할 수 있다.
5.
Test Project 로 이동하여 RUN을 시키고 Loss와 Accuracy를 체크할 수 있으며, View를 통해 Grad-CAM 을 모니터링을 볼 수 있다. (Classification은 Grad-CAM을 , Segmentation은 IoU를 모니터링 할 수 있다. )
* 노코드이지만 딥러닝 모델의 layer 구조를 자세히 볼 수 있고 소스코드를 다운로드 받아 line by line 으로 분석할 수 있다. (딥러닝 프레임워크는 Tensorflow를 사용)
아래 사진은 U-Net의 아키텍처이다.
아래 사진은 VGG16 모델의 소스코드이다. (친절한 코드는 아닌거 같다..)
후기: 기존 딥러닝 모델링 방식으로는 python 파일이나 Jupyter Notebook으로 소스코드를 한줄씩 작성하며 만드는 과정이었다면, 앞으로는 이 실습에서 배운 것처럼 노코드로 직관적으로 모델링을 구현하며 GUI 환경에서 손쉽게 만들 수 있을 것이라 생각한다. ( OS 커널이 CLI 에서 GUI 환경으로 변한 것처럼, AI 모델링도 CLI → GUI 로 작업환경의 변천사 과정을 겪는 시기 속에 있는 것 같다는 느낌을 받았다. ) 따라서 앞으로는 딥러닝을 통해 문제를 해결할 전략방식에 좀 더 집중할 수 있고 번거로운 문법 Error에 시간을 버리는 일이 줄어들게 될 것이라 생각한다. 이로 인해 좀 더 다양한 AI 솔루션들이 생산될 수 있는 작업환경이 마련된 것 같아 놀라웠다.
점심시간에는 호텔급 도시락을 제공해주셨다.