책임 있는 AI
윤리적이고 공정한 AI를 구현하려면 사람, 프로세스, 시스템, 데이터, 알고리즘 전반을 포괄하는 접근 방식이 필요합니다. 인텔은 사회의 위험은 낮추고 혜택은 최적화할 수 있도록 AI를 설계하고 있습니다.
인텔의 관점
인텔은 오래전부터 기술 개발과 관련된 윤리 및 인권 문제의 중요성을 인식해 왔습니다. 특히 AI 기술 개발과 관련하여 그러했습니다. 인텔은 제품 개발 및 배포 시 책임 있는 관행을 보장하기 위해 최선의 방법, 원칙, 도구를 발전시키는 데 전념하고 있습니다.
인텔의 접근 방식
인텔은 AI가 안전하고 지속 가능하며 윤리적인 방식으로 설계, 구축, 배포, 사용되려면 AI 생애주기 전반에 걸쳐 책임 있는 개발이 혁신의 토대가 되어야 한다고 믿습니다. AI의 빠른 진화가 지속됨에 따라, 인텔의 RAI 노력도 지속되고 있습니다.
Intel Labs 지능형 시스템 리서치 랩의 시니어 펠로우 겸 디렉터인 Lama Nachman을 통해 인텔이 책임 있는 AI를 위한 접근 방식을 어떻게 개선하고 있는지 알아보세요
책임 있는 AI의 핵심 요소
인텔은 책임감 있게 AI 기술을 발전시키는 데 전념하고 있습니다. 이를 위해 인텔은 개발 생애주기 내내 엄격한 다학제적 검토 프로세스를 활용하고, 다양한 배경의 개발팀을 구성하여 편향을 줄이며, AI의 잠재적 유해 사용을 완화하기 위해 업계 파트너와 협력하고 있습니다. 인텔은 국제 표준과 업계 모범 사례를 기반으로 선도적인 프로세스를 구현하기 위해 노력하고 있습니다. AI는 많은 발전을 이루었지만, 여전히 기술이 진화함에 따라 발견해야 할 것이 훨씬 더 많습니다. 인텔은 이 기술을 사용하여 긍정적인 변화를 주도하고 위험을 보다 효과적으로 완화할 수 있는 방법을 지속적으로 모색하고 있습니다. 또한, 지속적으로 학계 및 업계 파트너들과 협업하여 이 분야의 연구를 발전시키는 동시에, 책임 있는 AI 솔루션을 전산적으로 구현하고 효율화하기 위해 플랫폼을 진화시키고 있습니다.
내부 및 외부 거버넌스
내부적으로, 인텔의 다학제 자문 위원회는 7가지 원칙, 즉 1) 인권 존중 2) 인간의 감독 가능성 확보 3) 투명성과 설명 가능성 보장 4) 보안, 안전성, 신뢰성 증진 5) 프라이버시 중심 설계 6) 형평성과 포용성 촉진 7) 환경 보호의 관점에서 다양한 개발 활동을 검토합니다. 외부적으로는, 인텔 제품이 이러한 원칙을 위반하는 방식으로 사용되고 있다는 우려를 인식하는 경우, 자사의 글로벌 인권 원칙에 따라 해당 남용을 완화하기 위한 적절한 조치를 취할 것입니다. 여기에는 인텔 제품이 인권 침해에 사용되지 않는다는 높은 확신이 들 때까지 그리고 그러한 확신이 들지 않는 한 해당 비즈니스 파트너와의 거래를 제한 또는 중단하는 것까지 포함됩니다.
연구 및 협업
인텔은 전 세계의 학계 파트너와 협력하여 개인정보 보호, 보안, 인간/AI 협업, 미디어 신뢰, AI 지속 가능성, 설명 가능성, 투명성 등의 분야에서 연구를 수행하고 있습니다. 또한, 인텔은 AI 영향을 더 잘 이해하고 글로벌 과제를 해결하기 위해 지속적으로 업계 전반에서 출판 활동, 협업, 파트너십을 선도하고 있습니다.
인텔은 이러한 작업을 한 기업으로서뿐만 아니라 업계가 함께 발전시킬 수 있도록 C2PA(Coalition for Content Provenance and Authenticity), PAI(Partnership on AI), MLCommons® AI Safety Working Group, Business Roundtable on Human Rights and AI(로그인 필요), NIST U.S. AI Safety Institute Consortium 등의 협회 및 기타 다자간 이니셔티브에 참여하고 함께 협업할 수 있는 기회를 중요하게 생각합니다.
또한, 인텔은 Intel Center of Excellence on Responsible Human-AI Systems(RESUMAIS)를 설립했습니다. 이 다년간의 프로젝트는 DFKI(독일 인공 지능 연구센터), FZI Research Center for Information Technology, Leibniz Universität Hannover, European Laboratory for Learning and Intelligent Systems(ELLIS) Alicante 등 4개의 선도적인 연구 기관과 협력하여 윤리적이고 사용자 중심적인 AI 개발을 촉진하는 것을 목표로 합니다.
제품 및 솔루션
인텔은 책임 있는 AI의 전산적 구현을 지원할 플랫폼과 솔루션을 개발하고 있습니다. 인텔은 책임 있는 AI의 개발 부담을 완화할 수 있는 소프트웨어 도구를 개발하고 있으며, 개인정보 보호, 보안, 투명성을 개선하고 편향을 줄이기 위한 다양한 알고리즘 접근 방식을 탐색하고 있습니다. 이를 위해 인텔은 민족지학적 연구를 수행하여 고충점을 이해하고 이를 적절히 해결하고 있습니다.
인텔® Homomorphic Encryption Toolkit에 대해 더 알아보기
인텔® Trust Authority에 대해 더 알아보기
인텔® Explainable AI Tools에 대해 더 알아보기
포용적인 AI
인텔은 AI의 개발 및 배포 시 형평성, 포용성, 문화적 감수성이 필요하다는 점을 잘 알고 있습니다. 인텔은 이러한 기술을 개발하는 팀이 다양성과 포용성을 갖출 수 있도록 노력하고 있습니다. 예를 들어, 인텔은 자사의 디지털 준비 프로그램에 학생들을 참여시켜 책임 있는 AI, AI 윤리 원칙, 책임 있는 AI 솔루션의 개발 방법에 대한 인식을 제고하고 있습니다. AI 기술 분야는 다양한 인구, 관점, 목소리, 경험을 토대로 개발되고 형성되어야 합니다. 인텔이 커뮤니티 컬리지와 적극적으로 협력하는 이유도 이 때문입니다. 이러한 협력은 AI 기술을 민주화할 수 있는 기회를 제공합니다. 미국 고등교육 시스템에서 커뮤니티 컬리지는 다양한 배경과 전문성을 지닌 학생들을 유치하는 역할을 합니다. 인텔은 AI와 같은 신기술의 영향을 받는 각계각층의 사람들과 소통할 새로운 방법을 지속적으로 모색하고 있습니다.
이니셔티브
인텔은 기술이 지구상에 존재하는 모든 인간의 삶을 풍요롭게 만들어야 한다고 믿습니다. AI는 전 세계적인 변화를 일으키고, 우리에게 강력한 도구를 제공하며, 책임 있고 포용적이고 지속 가능한 미래를 실현할 수 있습니다. 인텔은 팬데믹, 자연재해, 글로벌 공중보건 등의 중대한 글로벌 과제를 해결하기 위해 AI의 힘을 활용하고 있습니다. 인텔은 인간의 잠재력 확장, 포용성 강화, 장애인 접근성 개선을 지원할 AI 기능 및 솔루션을 개발하고 있습니다.
안전성 향상
자율주행차의 성공적인 주행 구현부터 아동 착취 감축에 이르기까지, AI 기술은 사회를 더 안전하게 만드는 데 기여하고 있습니다.