About Center for Trustworthy AI
CTAI 연구소개
‘신뢰할 수 있는 인공지능(Trustworthy AI)’ 표준화 및 구체화
CTAI의 연구 목표는 윤리적·법적 요구사항을 반영한 ‘신뢰할 수 있는 인공지능(Trustworthy AI)’의 개념 및 평가지표를 제안하고, 그 검증 및 구현에 필요한 기술을 연구·개발함으로써, 우리 현실 및 법제에 맞는 인공지능 신뢰성 검증체계를 확립하는 것입니다.
이 과정에서 밀접한 학제간 연구를 통해 기술과 윤리적·법적 의무 사이의 간극을 메우고, 추상적 가이드라인이 아닌 실제 현장에서 개발자가 직접적으로 활용할 수 있는 구체적 측도 및 솔루션을 개발함과 동시에, 초학제적 융합연구 기반을 구축하고 융합인재 양성에 기여하고자 합니다.
‘신뢰할 수 있는 인공지능(Trustworthy AI)’ 표준화 및 구체화
단계별 계획
1단계(2022-2024)
우리 사회의 윤리적·법적 요구사항을 반영한 ‘신뢰할 수 있는 인공지능(trustworthy AI)’의 개념 및 평가지표 개발, 그 검증과 구현에 필요한 표준적 절차를 규정한 기술문서를 작성하고자 합니다. 이후 AI 모델 또는 데이터셋이 상기 개념과 평가지표를 충족하는지를 검증하고 기술적으로 이를 교정하여 신뢰성을 확보하기 위한 원천기술을 연구하여, 이를 논문으로 발표할 것입니다
2단계(2025-2028)
1단계 검증체계와 원천기술 연구를 심화하되, 특히 생성모델(generative model)과 관련하여 난제로 부각되고 있는 편향성, 유해성, 식별성/안전성/보안성을 검증하는 체계를 확립하고자 합니다. 또한 이러한 연구성과를 현실에 실현하면서 산업적 응용가능성도 담보하기 위한 소프트웨어 모듈을 개발할 것입니다. 나아가 구체적 융합인재양성 프로그램을 적극적으로 마련할 계획입니다.
기대효과
①
학술적, 기술적 측면
②
경제적, 산업적 측면
③
사회적 측면