K-SMARTFACTORY

Robotics & Automarion

로봇 비전의 시각

2021-05-22

로봇 시각의 비전
로봇이 작고, 더 똑똑하고, 협업적이더라도 로봇의 시각 능력은 주로 빈피킹(Bin-picking) 및 부품 정렬에만 국한되어 있다. 그러나 비전 시스템의 기술 향상 및 비용 절감은 로봇 공급 업체와 생산 현장에서 로봇을 사용하는 제조업체 모두에게 이전보다 더 쉽게 접근 할 수 있게 하여, 새로운 응용 프로그램의 문을 열어 주었다.

시각 보조 로봇은 품질 관리, 정밀 제조 및 제품 분류와 같은 새로운 제조 작업을 수행할 뿐만 아니라 인간-로봇 협업의 역할도 담당한다. 그리 멀지 않은 미래에, 비전은 로봇 지능을 필요로 하는 애플리케이션을 위한 기계 학습을 지원할 수 있을 것이다.

대부분의 다른 기술의 경우와 마찬가지로, 비전 시스템의 비용은 스스로의 능력이 크게 증가함에 따라 반비례적으로 작용한다고 National Instruments의 제품 마케팅 매니저인 Brandon Treece은 말한다.

"이미지를 분석하는데 필요한 계산 능력은 처리-집약적이다." Treece는 컴퓨터 칩이 비싸지 않으면서 더 많은 능력을 갖추었다고 설명했다. 향상된 처리능력과 더불어, 로봇 비전 시스템의 필수 요소인, FPGA (Field-Programmable Gate Array), 그래픽 처리 장치 (GPU) 및 카메라 자체에 대한 품질 향상이 실시되었다.

FPGA는 특정 시각의 용도(기본적으로 소프트웨어처럼 동작하도록 프로그래밍된 하드웨어)로 구성된 재프로그래밍이 가능한 집적회로(IC)이다. National Instruments(NI) 및 다른 도구의 도움을 받아, 비전 전문가가 아닌 기술자가 현장에서 FPGA를 설치하고 프로그래밍 할 수 있다. 이전에는 비전 전문가들의 높은 비용으로 인해 많은 기업들이 이 기술을 채택하지 못했었다.

**바로 소프트웨어로**

최근의 또 다른 비전 시스템 향상: 소프트웨어 제조업체인 IntervalZero의 현장 엔지니어링 디렉터인 Jerry Leitz는 소프트웨어로 로딩 할 수 있는 방식의 변화로 인해 이미지가 이전보다 빠르게 처리 될 수 있다고 전했다.

전통적으로 카메라는 정보를 프레임 그래버 (frame grabber)를 통해 이미지를 캡쳐 하여 시각적 데이터를 해석하는 소프트웨어가 설치된 컴퓨터로 보냈다. 이 소프트웨어는 부품 크기, 배치 및 기타 요인에 따라 부품이 올바른 위치에 있는지를 판단할 수 있다. 현재는 산업용 카메라의 인터페이스 표준인 GigE Vision을 사용하여 이더넷 네트워크를 통해 비디오 및 데이터를 컴퓨터 소프트웨어로 즉시 전송할 수 있다. "GigE는 프레임 그래버보다 빠르다. 이미지는 곧바로 PC로 전송된다. "라고 Leitz는 말한다. "이제 추세는 프레임 그래버를 제거하는 것이다."

하지만 제조업체가 약 5년 동안에 걸쳐 GigE에 접근 할 수 있었지만 완전히 그것을 채택하지는 못하고 있다.

일부 집약적인 비전 응용 프로그램의 컴퓨터는 여전히 프레임 그래버를 요구한다. 이에, GigE Vision은 윈도우 소프트웨어를 실시간 운영 체제로 전환시키는 수백 가지의 비전 응용 프로그램을 만들었다.

**비전은 로봇 행동을 지시한다**

전통적인 비전 로봇은 주로 인쇄 회로 기판(PCB)과 같은 구축할 대상을 찾기와 빈피킹(Bin-picking) 또는 재배열하는 작업에 사용이 된다, 라고 Yaskawa America Motoman Robotics Division의 소프트웨어 제품 매니저 인 Keith Vozel은 말했다.

여기에는 로봇이 할 일을 결정하게 하는 것도 포함된다. "로봇 컨트롤러에 정보를 제공하고 로봇에게 무엇을 해야 하는지 알려주지 않아도, 비전 시스템이 이러한 결정을 내릴 수 있다."라고 Vozel은 말한다.

예를 들어, IntervalZero 고객 중 하나는 리사이클 프로그램에서 로봇 비전을 사용하여 원하지 않는 항목을 자동으로 분류한다. "리사이클 시스템에서 컨베이어를 따라 빠르게 내려 오는 모든 모양과 크기의 재질을 구분하며, 계속해서 그것의 이미지를 얻는다."라고 Leitz는 말했다.

이 경우 비전 시스템은 특정 모양, 크기 및 색상을 기준으로 항목을 선택하도록 프로그래밍 된다. "2 인치 × 2 인치 크기의 물체가 있고, 그것이 찾고있는 색상이라면 시스템은 물체가 컨베이어 벨트의 어느 부분에 있는지 알고 있다."라고 Leitz는 설명한다. "그들은 발에 고정된 공기 노즐을 가지고 있으며, 공기 노즐은 자동으로 켜져 그 재료 조각에 공기를 불고, 벨트에서 그것을 용기 안으로 날려 버린다."

리사이클링 기능은 2009년에 Carnegie Mellon University (CMU)에서 수행 한 작업을 기반으로 한다. 연구원은 Intel Research Pittsburgh의 공동 작업자와 함께, 3D 이미지를 만들기 위해 여러 이미지의 정보를 병합하는 시스템을 개발했다. 모서리나 질감 영역과 같은 특성에 초점을 맞춤으로써, 객체 인식 알고리즘은 잡동사니의 더미 속에서 특정한 물체를 발견할 수 있다.

CMU 로보스틱스 기관의 연구를 주도한 Alvaro Collet Romea박사의 말에 따르면, 특징들 간의 충분한 공통점을 발견하면 알고리즘은 사물을 식별하는데, 이 때 비전 로봇이 서로 닮지 않은 수많은 사물들을 구별하고 타겟을 집어 내는 데 사용될 수 있다.

전체 객체가 아닌 하나의 객체의 기능을 찾음으로써 비전 시스템은 전통적인 알고리즘에 의존하는 것보다 빠르게 객체를 인식할 수 있다고 Rome는 말한다. 심지어 시스템은 부분적으로 가려져있는 물체를 식별하고 선택 할 수 있다.

또 다른 IntervalZero 고객은 알약의 개수를 계산하기 위해 비전을 사용한다. 알약은 실시간으로 이미지를 수집하고 분석하는 카메라의 앞에서 "폭포처럼" 떨어진다. 캡슐 수가 특정 수에 도달하면 시스템이 자동으로 컨베이어를 밀어서 각 병에 동일한 개수가 되도록 한다.

비전은 또한 정밀 제조 분야에서 높은 정확도와 적은 오차의 로봇 기술을 강화하고 있다. 예를 들어, 스마트 폰 제조업체는 물건이 표적 위치에서 10m/sμm이내에 위치하도록 요구할 수 있다. 머신 비전 시스템을 제조하는 Cognex의 글로벌 솔루션 마케팅 이사인 John Petry가 말하기를, 비전 소프트웨어는 이러한 종류의 정확성을 가능하게 하고, 여러 제조 라인을 병렬로 작동시켜 동일한 작업을 동일한 수준의 정확도로 수행 할 수 있도록 해준다.

한편 보정 소프트웨어는 비전 시스템 내에서 카메라 렌즈 또는 원근감 왜곡을 보정하고, 카메라와 로봇을 연결하므로 "로봇이 부품과 관련하여 어디 있는지 항상 알 수 있다."라고 Petry는 말한다.

**함께 일하다**

한편, 카메라는 계속해서 인간과 직접적으로 작업 할 수 있는 새로운 종류의 로봇인 협업 로봇을 만들어내는데, 특히 이 협업 로봇은 움직이는 물체나 사람을 만났을 때 로봇 팔의 작동을 자동으로 중지시키는 안전 시스템을 내장 하고있다. Autodesk의 수석 연구원 인 David Thomasson은 협업 로봇이 앞으로 다가올 제조 및 건설 산업에 상당한 영향을 미칠 것이라고 말했다.

예를 들어 Universal Robots의 협업 로봇은 안전한 장소에 고정되 있는 기존의 산업용 로봇과는 달리, 공장 내에서 돌아 다닐 수 있다. 또한 Universal Robots 'Americas Division의 총책임자인 Scott Mabie는 이 협업 로봇은 1분 이내에 리프로그래밍 될 수 있다, 라고 말했다.

마찬가지로, Rethink Robotics의 협업 로봇은 일을 완수 할 수 있도록 현장 제조 직원에게 훈련을 받는다. 트레이너는 로봇을 다양한 위치로 이동시키고 수행해야 할 작업을 보여준다. 로봇 제조사의 수석 제품 및 마케팅 담당자인 Jim Lawton은 비전 시스템과 결합된 온 보드 소프트웨어를 통해 로봇이 이러한 작업을 학습 할 수 있다고 말한다.

Rethink Robotics의 Baxter 및 Sawyer 로봇에는 머리와 팔에 카메라가 내장되어 있다. Sawyer에는 조명도 구분한다. "우리는 조명이 얼마나 중요한지 배웠다. 아침에 훈련 된 로봇은 빛이 바뀌거나 태양이 아래로 내려 갔을 때 작동하지 않기 때문이다."라고 Lawton은 말한다.

내장형 카메라를 통해 로봇은 바코드를 읽고 용지함이나 컨베이어에서 부품을 찾아 선택하고 검사 할 수 있다. 로봇은 부품을 인식하고, 그들이 수행 해야 할 적절한 검사 순서를 자동적으로 호출한다.

로봇을 훈련시키고 비전 시스템을 프로그래밍하는 사람들은, 이전의 비전 전문 지식을 필요로 하지 않는다고 Lawton은 덧붙였다. "그것은 카메라에 필요한 투자비용과, 로봇을 프로그래밍 하는 전문가들을 고용 할 여유가 없는 회사의 고통을 절감 시켜준다."

**다음엔 무엇인가?**

IntervalZero의 Leitz는 로봇과 인간이 제조 현장에서 더 가깝게 일하기 시작함에 따라, 안전을 위해 사용되는 로봇 비전 시스템을 예측했다. "작업자의 손이 컨베이어에 있는 물건을 방해하면 로봇이 이를 보고 즉시 기계를 멈출 것이다."

협업 로봇은 소프트웨어에 내장 된 인공 지능 덕분에 업무를 더 잘 수행하는 방법을 배우고 있다고 Lawton은 말한다. "역사적으로 로봇은 평균적으로 프로그래밍하는데 약 300 시간이 걸리지만 실제로는 배우지 않는다."라고 그는 말한다. "로봇은 시각 센서는 거대한 용량을 지니고있다. 모든 센서 정보를 분석 엔진으로 가져올 수 있다면, 작업에 대한 통찰력을 얻을 수 있을 것이다. 또한 유사한 작업을 수행하는 다른 로봇과 클라우드에서 공유되는 통찰력을 기반으로 자체 성능을 향상시킬 수도 있다. "

또한 Lawton은 이전에는 보지 못했던 일들을 작업하기 위해, 클라우드에 저장된 시각적 데이터를 가져와 인용할 수 있다고 설명했다. "AI, 클라우드와 비전 사이에서 로봇은 도구를 사용하고, 그것이 할 수 있는 것보다 더 나은 작업을 수행하는 방법을 발견 할 수 있다."라고 Lawton은 말한다.

Leitz는 또한 제조 업체가 클라우드에 저장된 시각 자료를 찾을 수 있도록 한다. 예를 들어, 특정 날짜에 발생한 문제를 추적하거나 로봇이 테스트했을 때 부품이 올바로 작동하는지를 확인할 수 있다.

한 가지 확실한 사실은 비전 시스템의 전망이 더욱 밝아지고 있는 걸 알고 있으면서, 지속적으로 비전을 제시하는 것이다.



출처 : Automation World - The Vision for Robotic Vision

번역 및 편집 : K-SmartFactory