Douglas' Space
Ai의 위험에 대해서 본문
Ai가 무엇이기에 특별히 그 위험을 관리해야 할까요? 이를 위해서는 사실 Ai에 대한 이해가 필요합니다. Ai에 대해서는 Ai에 대한 다른 글을 참조해 주시기 바랍니다. 요약을 하면 정보를 처리하는 일반적인 소프트웨어와 같으나 Neuro Ai의 딥뉴럴넷은 예측이 어려운 확률분포를 기반으로 한다는 것이 이러한 위험을 내포한다고 할 수 있습니다. 따라서 제3세대의 Ai인 Neuro-Symbolic Ai가 신뢰성있게(Trustworthy) 개발이 된다면 일반적인 소프트웨어가 갖는 위험 정도로 제어가 가능하다고 생각합니다.
그러나 현재 시점에서는 아직 설명 가능하며 신뢰성 있는 Ai의 개발이 필요하며, 따라서 Ai가 야기할 수 있는 위험의 특성을 이해하는 것은 중요하다고 생각합니다. Ai가 일반적인 소프트웨어로 야기되는 위험과 특별히 다른 점이 무엇인 가를 Ai RMF에서 제시하는 위험의 특성을 기준으로 정리하면 다음과 같습니다.
1. Poor Data Quality (빈약한 데이터 품질)
Ai 시스템 구축에 사용되는 데이터가 Ai 시스템의 맥락이나 의도된 사용에 대한 진실되거나 적절한 대표성을 갖지 않을 수 있으며, 정답이 존재하지 않거나 사용 가능하지 않을 수 있습니다. 또한, 유해한 편향과 기타 데이터 품질 문제가 AI 시스템의 신뢰성에 영향을 미치며, 이는 부정적인 영향을 초래할 수 있습니다.
2. Learning Dependency (학습 방법에 의존적임)
Ai 시스템이 훈련 작업을 위해 데이터에 의존하고 이와 관련하여 보다 많은 양과 복잡성이 늘어납니다. 훈련 중 의도적 또는 비 의도적인 변경이 Ai 시스템의 성능을 근본적으로 변경할 수 있습니다. Ai 시스템을 훈련하는 데 사용되는 데이터 세트가 원래 의도한 맥락과 분리되거나 맥락에 비해 오래되거나 구식화될 수 있습니다.
3. Scale and Complexity (규모 및 복잡성)
전통적인 소프트웨어 애플리케이션에는 제어를 위한 파라미터수는 딥뉴럴넷에서의 파라미터와는 비교가 되지 않을 정도로 많지 않기 때문에 수십억 또는 수조의 의사 결정 지점을 포함하는 Ai 시스템 의 규모와 복잡성은 가장 큰 위험요소라고 할 수 있습니다.
4. Pre-trained Model (사전 학습모델)
Ai의 솔루션화 및 공용화를 위해 다양한 분야에 Pre-trained model이 개발되고 있습니다. 연구를 진보시키고 성능을 개선할 수 있는 Pre-trained model 의 사용은 통계적 불확실성 수준을 높 일 수 있으며, 편향 관리, 과학적 타당성 및 재현성 문제를 일으킬 수 있습니다. 특히 대규모 Pre-trained model의 새로운 특성에 대한 실패 모드를 예측하기 어려워 난이도가 높습니다.
5. Privacy (개인정보 보호)
Ai 시스템의 개인정보 보호 위험은 대규모 언어모델과 같이 방대한 양의 데이타를 self-supervised learning을 사용하여 데이터 집계 능력이 강화됨에 따라 높아집니다. 개인정보 보호와 같이 소수그룹에 대한 편향 등도 이러한 대규모 데이타 집계로 인해 차별 등과 같은 문제를 야기할 수 있습니다.
6. Testing Difficulty (테스트 어려움)
개발된 소프트웨어 테스트 표준이 미숙하며, 전통적으로 엔지니어링된 소프트웨어와 같은 표준에 따라 Ai 기반 관행을 문서화하는 능력이 단순한 경우를 제외하고는 어렵습니다. 이를 위해 Ai에 특화된 테스트케이스와 방법에 대한 고려가 매우 중요하며 높은 신뢰성이 요구되는 시스템에 적용하는 경우의 가이드라인이 미흡한 상태입니다.
7. Computing Resource (컴퓨팅 자원)
chatGPT의 등장으로 대규모 언어모델에 대한 관심이 높아지고 있습니다. 아울러 이를 구축했던 비용과 이를 운영하는 비용에 대한 관심도 높아지고 있습니다. 학습과 운영을 위해 사용된 컴퓨팅 자원의 양은 환경에 미치는 영향이 크다고 할 수 있습니다.
8. Unpredictable Side Effects (예측이 어려운 부작용)
지금까지 설명한 위험 이외에도 예측하기 어려운 부작용이 존재할 수 있다는 것입니다. 예를 들어 자동화로 인해 특정 개인의 경제적 어려움을 초래한다던지, Ai를 겨냥한 적대적 공격으로 인한 시스템의 피해를 야기 한다던지, 또한 시간이 지남에 따라 모델의 성능저하가 발생할 수 있다는 것입니다. 특히 단기적인 문제가 아니라 장기적으로 시간이 지난 후에 발견될 수 있는 문제점은 예측하기 어려울 수 있습니다.
'Computing Tech. Diary > AI RMF' 카테고리의 다른 글
Trustworthy Ai-based System 개발에 대해서 (6) | 2024.10.09 |
---|---|
Ai RMF의 핵심기능(Core) (0) | 2023.11.19 |
Trustworthy Ai와 Responsible Ai의 의미 (0) | 2023.10.02 |
Ai 위험관리 이슈들 (0) | 2023.09.29 |
Ai RMF(Risk Management Framework)란 (0) | 2023.09.24 |