일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 케라스
- ChatGPT
- word2vec
- cnn
- AI Fairness
- Bert
- Ai
- 머신러닝
- 지피티
- Tokenization
- fairness
- 설명가능성
- 신뢰성
- MLOps
- GPT
- Transformer
- 트랜스포머
- gpt2
- 딥러닝
- trustworthiness
- GPT-3
- ML
- 챗GPT
- DevOps
- 자연어
- 인공지능 신뢰성
- XAI
- 인공지능
- 챗지피티
- nlp
- Today
- Total
목록인공지능 신뢰성/신뢰성 정책 및 연구동향 분석 (7)
research notes
얼마 전 스캐터랩이 개발한 인공지능 챗봇 서비스인 ‘이루다’가 개인정보 유출 및 성차별 문제로 많은 이슈 속에 서비스를 중단하였으며, 2016년 3월에는 미국의 컴퓨터 소프트웨어 회사인 마이크로소프트가 ‘테이’라는 인공지능 챗봇을 공개했지만 테이가 인종차별적 발언을 하는 등 막말을 내뱉기 시작하여 많은 논란이 커지자 마이크로소프트는 서비스를 종료했다. 이를 계기로 인공지능 편향성에 대한 문제가 수면 위로 본격적으로 떠올랐으며 인공지능을 도입하기 위해서는 안전하고 신뢰할만한 개발과 알고리즘의 중요성이 높아지게 되었다. 인공지능과 관련되어 제기되는 윤리적인 이슈 중 하나가 바로 편향성(bias)의 문제이다. 실제로 편향성의 문제를 편견(prejudice, vorurteil)이나 고정관념의 문제와 혼동하는 경..
1. 공정성에 대한 지표와 개념, 원칙은 분야와 상황에 따라 달리 적용해야 하고, 산업계 차원의 합의가 이루어지지 않고 있다. 2. 위험평가 알고리즘인 COMPAS는 과거 유죄판결을 받은 사람들의 재범 가능성 추정 그러나 실제로 범죄를 저지르지 않았음에도 불구하고 흑인이 백인보다 높은 위험도 판정을 받을 확률이 두배에 이름 3. 기계학습이 이해하는 수학적 공정성의 한계 기계학습이 이해할 수 있는 공정성은 수학적으로 정의되어 정량 평가가 가능해야 한다. 이에 대한 공정성의 정의는 무려 20여가지이며 대부분 분배적 관점에서 통계적 공정성에 초점을 두고 있다. 즉, 통계적 공정성에 대한 단일한(혹은 최상의 정의에 대한) 합의가 존재 하지 않는다. 이 외에 아래와 같은 공정성 관련 한계들이 존재한다. 4. 사회..
TTA는 2019년 초 지능정보기반 기술위원회(TC10)가 신설되면서 사물인터넷/스마트시티 플랫폼, 사물인터넷 네트워킹, 클라우드 컴퓨팅, 빅데이터, 인공지능, 블록체인 분야에 대한 표준화 활동을 추진하고 있다. 이 중에서, 인공지능기반기술프로젝트그룹(이하 PG1005)은 지능정보기반 기술 중에서 인공지능의 기반 기술과 관련한 국내 표준 개발을 담당하고 있으며, 동시에 관련 국제기구와의 표준화 협력을 위한 활동을 수행하고 있다. References: [1] 인공지능기반기술 프로젝트 그룹, 2020.01, TTA 저널 187호
** "금융분야 AI 가이드라인 ('21.07, 금융위원회)"를 요약하여 작성 ** 1. 목적과 적용 범위 가이드라인은 금융 분야에서의 인공지능(이하 ‘AI’라 한다.) 시스템 의 개발, 사업화 및 활용과 관련한 기획·설계, 평가·검증, 도입·운영 및 모니터링의 전 과정에서 신뢰성을 제고하여 AI 활성화를 제고하고 금융 서비스에 대한 고객 신뢰를 확보하는데 기여하는 것을 목적으로 한다. 2. 거버넌스의 구축 금융회사 등은 AI 시스템의 전 과정에 걸쳐 AI 활용에 따라 나타날 수 있는 잠재적 위험을 인식·평가하고, 이를 관리·최소화하는 방안을 검토하는 등 AI 활용으로 인한 잠재적 위험을 관리하는데 필요한 위험 관리정책을 마련한다. 위험 관리정책은 소비자 권리 보장을 위한 시스템 운영, AI 모델 및 학..
** "인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙 ('21.06, 방송통신위원회)"를 요약하여 작성 ** 1. 목적 본 기본원칙은 디지털 미디어 플랫폼에서 상용되는 인공지능 기반 추천 서비스의 투명성과 공정성을 제고하기 위하여 추천 서비스 제공자에게 권고되는 자율적인 실천규범이다. “인공지능 기반 추천 서비스”란 인공지능 알고리즘을 적용하여 완전히 또는 부분적으로 자동화된 콘텐츠 배열 시스템(이하 “추천 시스템”이라 한다)을 통하여 이용자에게 미디어 콘텐츠를 선별적으로 노출시키는 서비스(이하 “추천 서비스”라 한다)를 말한다. 2. 핵심원칙 ① 투명성 추천 서비스 제공자는 이용자가 이용 시작 시점에 그 제공 사실을 인지하고 서비스의 내용에 영향을 미치는 주된 요인과 효과를 이해할 수 있도록 ..
REQ1. Human Agency and Oversight 1. Human Agency and Autonomy AI 시스템은 인간 또는 사회에 영향을 미치는 최종 사용자가 상호작용, 안내 또는 결정을 내리도록 설계 되었습니까? AI 시스템이 결정, 내용, 조언 또는 결과가 알고리즘 결정의 결과인지 여부에 대해 일부 또는 모든 최종 사용자 또는 주제에 대해 혼란을 일으킬 수 있습니까? 최종 사용자 또는 기타 주체가 결정, 내용, 조언 또는 결과가 알고리즘 결정의 결과임을 적절히 인식하고 있습니까? AI 시스템이 일부 또는 전체 최종 사용자 또는 대상이 인간 또는 AI 시스템과 상호 작용하는지에 대해 혼란을 일으킬 수 있습니까? 최종 사용자 또는 피험자가 AI 시스템과 상호 작용하고 있다는 정보를 받습니까?..
** "유네스코 인공지능 윤리 권고 ('21.12)" 및 "유네스코 AI 윤리 권고 주요 내용 및 시사점 (NIA, '21.12)"를 요약하여 작성 ** ◇ 유네스코 AI 윤리 권고의 추진 및 배경 (⇒ 국제적 AI 윤리 가이드라인의 필요성 대두) AI 윤리와 관련한 국가 및 지역 수준의 전략과 프레임워크는 개발되어 왔으나, 현재까지 국제적 수준의 기준은 마련되지 않음 이에 국가의 발전 정도, 문화적 차이, 공공과 민간의 다중 이해관계자 등 다양한 요인을 고려한 국제적 AI 윤리 가이드라인의 필요 부상 ◇ 유네스코 AI 윤리 권고의 특징 기존 권고안 및 가이드라인이 구속력 없는 원칙을 제시한 것의 한계를 인식하고, 국가별 상황에 맞게 규제 프레임워크의 도입과 개선을 요구 AI 시스템 전주기 및 관련 행위..