[사설] 인텔이 인공지능을 활용하는 법
[사설] 인텔이 인공지능을 활용하는 법
  • 김현동
  • 승인 2022.09.15 23:34
  • 댓글 0
이 기사를 공유합니다

라마 나흐만(Lama Nachman) 인텔 랩(Intel Lab) 인텔리전트 시스템 연구소 디렉터

인공지능(AI)은 우리의 삶과 일, 그리고 복잡한 문제를 해결하는 방법을 변화시키는 등 인간의 일상 생활에 있어 중요한 부분으로 거듭났다. 신경 질환을 앓고 있는 사람들을 위한 음성 뱅킹 시스템부터 자율주행 차량이 더욱 안전한 주행을 할 수 있도록 지원하고 강수량 패턴과 인구 추세를 더욱 잘 이해하도록 돕는 연구까지, AI는 인간이 마주한 장애물을 극복하고, 더욱 안전한 사회를 만들며, 더 나은 미래를 건설하기 위한 해결책을 개발할 수 있도록 지원한다.

실제로 AI가 제공하는 실질적인 혜택에도 불구하고, 할리우드와 같은 영화계에서는 AI를 인류를 위협하는 존재로 묘사하기를 즐기고 있다. 이러한 공상과학 시나리오의 전개는 실제로 AI를 잘못 설계할 경우 인간에게 해를 끼칠 수 있다는 매우 당연하지만 현실적인 문제를 지각하기 어렵게 한다. 우리는 AI가 사람을 소외시키지 않고, 비윤리적으로 데이터를 활용하지 않으며, 인종 간 차별을 하지 않도록 부단히 노력해야 한다. 이는 AI 시스템 개발자들이 이미 인식하고 있으며 예방해야 하는 문제다.

인텔은 AI기술이 전 세계적으로 긍정적인 변화를 만들고, 올바른 도구를 제공해 사람들이 더 많은 일을 할 수 있도록 돕고, 지구상의 모든 사람들의 삶을 개선할 수 있는 잠재력을 가지고 있다고 믿는다. 오랫동안 세계에서 가장 윤리적인 회사 중 하나로 인식되어 왔고, 이에 따르는 책임을 엄중히 받아들이고 있다.

특히 지난 2009년부터 인텔 글로벌 인권 원칙을 채택, 시행해오고 있으며, AI 를 포함해 책임감 있는 제품을 만드는데 높은 기준을 적용하고 있다. 인텔은 AI 기술 개발과 관련한 윤리적 위험을 인식하고 있다. 더불어, 전 산업 분야에서 수많은 기업이 인텔의 기술을 활용해 혁신적인 발전을 이루어 나감에 따라 롤모델이 되고자 노력하고 있다.

또한, 제품 수명주기 전반에 걸쳐 AI 기술을 책임감 있게 발전시키기 위해 최선을 다하고 있다. 인텔은 책임있는 AI를 위해 AI의 오용을 방지하고, 내부 감독 및 제반 관리 절차 등 노력을 견지하고 있으며, 이러한 노력은 책임있는 AI 홈페이지에 포함돼 있다.

① 검토 과정

AI 자문 위원회(Responsible AI Advisory Council)는 AI 프로젝트의 수명주기 전체에 걸쳐 엄격한 검토 과정을 수행한다. 위원회는 인권, 관리 감독, AI 활용 이유, 보안, 안전 및 신뢰성, 개인 정보 보호, 형평성 및 포용성 등 6가지 핵심 영역에 대한 윤리적 영향 평가를 통해 제품 및 프로젝트에 대한 검토 과정을 수행한다. 검토의 목표는 AI 프로젝트 내에서 잠재적인 윤리적 위험을 평가하고 이러한 위험을 가능한 빨리 완화하는 것이다. 더불어, 위원회 구성원들은 전체적인 일관성 및 규정 준수를 위해 AI 프로젝트 개발 팀을 위한 교육 및 피드백 등을 지원한다.

② 다양성 및 포용성

AI 알고리즘의 편향성은 도구 및 프로세스만으로는 해결할 수 없다. AI 기술은 다양한 배경과 의견 그리고 경험을 가진 많은 사람들에 의해 형성되어야 한다. 인텔은 AI 실무자들과 각각의 기술이 공정하고 포괄적일 수 있도록 노력한다. 다양한 배경의 사람들로 구성된 팀은 그렇지 않은 팀에 비해, 자칫 간과할 수 있는 부분에 대해서도 의견을 제시하고 우려를 표명할 수 있다. 특히 사회과학 연구 결과를 활용해 데이터, 문제 공식화 또는 모델링에서 편견이 발생할 가능성이 있는 상황 뿐 아니라, 현실 세계에서 피해를 끼칠 수도 있는 예상하지 못한 위험한 상황을 이해할 수 있도록 노력하고 있다.

③ 프라이버시 및 보안

보안 연구개발 팀은 안전한 AI 기술을 제공하고, 데이터 무결성, 개인정보보호 및 정확성을 유지하고자 노력하고 있다. 인텔은 생태계가 신뢰할 수 있는 AI를 구축할 수 있도록 하드웨어 및 소프트웨어에 걸친 혁신을 제공한다. 일례로, 프라이빗 AI 연구소(Private AI institute)는 사람들이 개인정보를 더 잘 보호할 수 있는 방법을 알리는 것을 목표로 한다.

연합 학습 및 openFL 연구는 민감한 데이터를 기반으로 유용한 AI기술을 개발하는 데 초점을 두고 있다. 더불어 미 방위고등연구계획국(DARPA) GARD 프로젝트는 AI조작 여부를 검증하는 방법을 연구하고 있다. 마지막으로, 앰버 프로젝트(Project Amber)는 고객과 파트너가 엣지에서 클라우드까지 인프라를 더 잘 신뢰할 수 있는 방법을 제공한다.

최근 딥페이크를 둘러싼 많은 윤리적 우려가 제기됐다. 인텔은 딥페이크 탐지 기술 및 딥페이크에 활용된 원본 자료를 결정하는 도구를 제품에 통합하고, 이러한 기술을 고객이 자사 플랫폼에 도입할 수 있는 방법을 모색해왔다.


By 김현동 에디터  PRESS@weeklypost.kr
〈저작권자ⓒ 위클리포스트, 무단전재 및 재배포 금지〉



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.