K-SMARTFACTORY

AI & Big Data

인공지능(AI) 번아웃 줄이는 방법

2023-01-17

 


 

 

인공지능이 여러 중요한 의사결정과 자동화 과정에 영향을 미치면서 책임성과 윤리성이 뜨거운 이슈로 부상하여 화두가 되고 있다. 최근 한 조사에 따르면, 35%의 기업들이 그들의 비즈니스 과정에서 인공지능을 활용하고 있으며 42%는 인공지능 기술을 탐색하고 있다. 

IBM의 조사에 의하면 응답자 5명중 4명이 인공지능이 어떻게  그들의 비즈니스에 중요한 결정을 내리는지 그 과정을 이해할 수 있는 '신뢰성'이 매우 중요하다고 응답하였다. 

그러나, 인공지능은 여전히 숫자 0과 1로 이루어진 이진법 코드에 불과하다. 필자와 공동저자이며 Constellation Research에서 기획 업무를 맡고 있는 Andy Thurai가 Harvard Business Review 저널에 서술한 것처럼 인공지능에는 공감능력과 상황맥락에 대한 이해가 종종 결여되어 있다. 

인공지능은 왜곡되고 해로운 결과를 도출할 수 있는 잠재력을 가지고 있다. 인공지능이 결정을 내리는 데에 차지하는 비중이 커지면서, 단순한 챗봇이나 예측 유지보수에서 부터 경영적 혹은 의료적 의사결정을 보조하는 일까지 인공지능이 도출할 결과에 대해 철저히 고민해 볼 필요가 있다.

인공지능 개발자, 운영자, 유저, 그리고 지원자들은 AI가 수행하는 결정 과정을 공개하고, 결정 구조에 대해 설명 가능하며 새로운 시나리오에 지속적으로 적응할 수 있어야만 한다. 

그러나 인공지능의 윤리성과 책임성을 정의하기 쉽지 않다. 특히 인공지능을 담당하는 팀들에게는 엄청난 부담이 될 수 있다. MIT Technology Review에서 Melissa Heikkila가 지적한 것처럼 “이로 인한 번아웃이 인공지능 담당 부서에 엄청나게 가중되고 있다.” 

규모가 큰 기관들은 “인공지능 시스템의 고안, 개발, 그리고 이용에 따라 우리의 삶과 전반적인 사회 및 정치적 시스템이 어떻게 영향을 받는지 평가할 수 있는 팀에 투자를 한다.”라고 말한다. 따라서 이 것은 중소기업과 스타트업의 개발자, 데이터 엔지니어, 그리고 데이터 과학자들에게 무거운 책임이 귀속된다는 것을 의미한다.  

규모가 큰 기업들 조차 “인공지능 구현 팀들은 종종 외부의 도움 없이 그들 스스로 책임을 떠맡아 업무를 수행해야 하는 상황에 처한다.”라고 Heikkila는 말한다. 이 업무는 컨텐츠 조정만큼이나 정신적으로 피폐할 수 있다. 궁극적으로, 이러한 업무는 관련 팀원들의 자존감을 떨어뜨릴 수 있고 정신 건강에 영향을 미쳐 번아웃으로 이어질 수 있다. 

최근 몇년간 인공지능 도입의 빠른 속도로 인해 높은 수준으로 업무의 압박이 증가되고 있다. 인공지능 활용 현황을 보면 실험실에서 뿐만 아니라 실제 생산현장에서도 활용하고 있는데 지난 몇 년간 예상했던 것보다 훨씬 빠르게 증가하였다고 인공지능을 강력하게 지지해왔던 Thurai는 말한다. 

또한 그에 따르면 인공지능의 책임성을 유지하기 위해 중립성과 신념 사이의 타협점을 찾으려 노력하는 와중에 신념, 관점, 의견, 그리고 문화에 반하는 컨텐츠, 결정, 데이터를 조정하는 일들을 강요 받을 때 특히 정신적으로 힘들 수 있다고 한다. 인공지능이 365일 24시간 내내 가동된다는 것을 고려할 때, 그리고 인공지능이 내린 결정이 때때로 굉장히 중요하다는 것을 고려할 때 관련 업무를 맡은 사람은 인공지능의 활동을 계속해서 추적해야 하며 이는 번아웃과 체력 고갈로 이어져 오류하기 쉬운 판단과 결정으로 이어질 수 있다. 

관련된 법과 거버넌스는 인공지능의 발전에 상응하는 수준까지 따라오지 못하고 있는 것이 현 실정이다. 대부분의 기업들이 인공지능의 윤리성과 거버넌스에 관련된  적절한 대응절차와 가이드라인을 가지고 있지 못하고 있는 현실은 인공지능의 책임성 확립을 위한 길을 더욱 복잡하게 만들고 있다고 Thurai는 덧붙였다.

무거운 페널티 부과와 인공지능이 내린 결정을 되돌리려는 등 인공지능 산출물에 대한 법적인 문제들 역시 부담으로 작용할 수 있다. 인공지능 시스템에 어떤 특정 규칙을 수립하고 적용해야 하는 직원들은 특히 스트레스를 많이 받을 수 있다. 

상부의 지원 부족 이 역시 스트레스 증가의 원인이다. MIT Sloan Management Review와 Boston Consulting Group이 1000여명의 기업 임원들을 대상으로 실시한 연구결과가 이를 뒷받침한다. 

 

그러나, 연구결과 대부분의 임원들은 인공지능의 책임성이 테크놀로지, 리스크, 안전, 편견, 공평, 프라이버시를 포함한 이슈들을 해결하는 데에 필수적이라는 것에 동의하면서 그들이 인공지능의 책임성을 우선시하지 못하고 있는 것에 대하여 인정하였다.  

그렇다면 인공지능 지지자, 개발자, 그리고 분석가들은 바다에서 밀려오는 거센 조류와 같은 잠재적 번아웃이라는 이슈에 대응하여 어떻게 해결해야 할까? 아래에 인공지능으로 인하여 유발된 스트레스와 번아웃을 해결할 수 있는 몇 가지 방법들을 소개한다:

 

● 기업 리더들은 인공지능의 무책임성이 야기할 결과에 대해 인지하고 있어야 한다. 

정제되지 않은 인공지능의 결정과 아웃풋은 소송, 규제 같은 잠재적 리스크를 가지고 있다. “임원들은 윤리적이고 책임있는 인공지능을 구현하기 위한 비용을 단순한 비용이 아닌 기업 책임과 위험에 대비하는 장기적인 관점에서 바라보아야 하며 개선하기 위한 수단으로 여겨야 한다.”라고 Thurai는 말한다. “단기적으로 볼 때 비용을 줄이는 것은 수익을 높일 수는 있겠지만 사후에 발생할 수 있는 법적 책임은 예상치 못한 큰 지출을 유발할 수 있다.”라고 그는 덧붙였다. 

 

● 심리 상담 같은 지원책 모색. 

책임있는 인공지능을 구현하는 과정에서 유발된 스트레스는 지원을 고려해야 할 새로운 현상이다. “여러 테크 기업들의 심리적 지원책을 보면 시간 관리나 워라벨 등에 초점을 맞추고 있는데, 감정적으로나 정신적으로 힘든 업무를 맡은 사람들을 위한 더 많은 지원책이 필요하다.”라고 Heikkila는 말한다. 

 

● 기업들은 책임있는 인공지능 구축이 우선순위가 되어야 한다는 것을 명심. 

인공지능을 도입한 모든 기업들이 책임있는 인공지능을 구현해야 한다고 Thurai는 말한다. 그에 따르면 앞서 언급한 MIT-BCG의 연구결과 인공지능을 전략적 우선순위로 삼은 기업들 중 19%만이 책임성이 기반된 인공지능 프로그램을 시행하고 있다고 한다. 그는 19%가 아닌 100%에 가까운 결과가 나와야 바람직한 것이라고 말한다. 임직원들은 윤리, 도덕, 그리고 공평함을 고려하는 전체적인 의사결정 구조를 체택하도록 장려하여야 한다. 

 

● 인공지능의 책임성 보증 위해 적극적으로 도움을 요청.

윤리적인 결정을 내리기에 충분한 교육을 받지 않은 인공지능 혹은 타분야 엔지니어들 대신 전문가들이 윤리성이 보증된 인공지능 결정을 내리도록 해야한다고 Thurai는 전한다. 

 

● 사람이 수정할 수 있도록 여지를 남겨둘 것. 

결정을 변경할 수 있는 탈출구를 항상 마련해 두어야 한다. 시스템 재설정에 유연하고 열린 자세를 가져야한다. SAS, Accenture Applied Intelligence, Intel, 그리고 포브스의 조사결과 응답자 중 1/4이 인공지능 기반 시스템을 여러 의문점이나 불만족스러운 결과로 인해, 재디자인, 중단해야 했던 경험이 있다고 응답하였다. 

 

● 최대한 자동화할 것. 

인공지능 구축은 대규모 프로세스라고 Thurai는 말한다. 인풋 바이어스, 데이터 퀄리티 등을 인증하는 일은 수작업으로는 거의 불가능하다. 대규모 솔루션을 통해 해당 프로세스를 자동화해야 한다. 예외적 사항이나 감사 업무를 수작업으로 하는 것은 가능하지만 전체적 대규모 인공지능 작업을 인간이 하는것은 심각한 결과를 초래할 수 있다. 

 

● 편견을 데이터에서 제거할 것. 

인공지능 모델을 트레이닝 시키는데 사용되는 데이터는 제한된 데이터 수로 인해 암묵적 편견이 내재되어 있을 수 있다. 인공지능 시스템에 사용되는 데이터는 면밀하게 점검되어야 한다. 

 

● AI 시나리오를 실제로 실행하기 전에 점검할 것

AI 알고리즘으로 들어가는 데이터는 때때로 바뀔 수 있다. 이러한 알고리즘을 끊임없이 테스트해야 한다. 

 

“여러 견해들이 양극화된 사회에서 인공지능이 내린 결정을 윤리적인 입장에서 사실로 받아들이지 않는 일이 종종 발생할 것이다.”라고 Thurai는 말한다.

 “기업들은 인공지능이 내리는 결정의 투명성과 적용되는 윤리 및 거버넌스에 각별한 주의를 기울여야 한다. 톱에서 하부까지 설명 가능한 인공지능과 투명성 이 두 가지가 관리의 핵심요소이다. 인공지능을 활용하기 위한 활동과 프로세스를 정기적으로 평가하고 감사하는 것도 중요하다.”라고 그는 덧붙였다. 

 

 

참조 : zdnet