정보

설명 가능한 인공 지능이란 무엇이며 필요한가요?

설명 가능한 인공 지능이란 무엇이며 필요한가요?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

설명 가능한 인공 지능 -XAI는 최근 몇 년 동안 자주 논쟁이되고있는 주제이며 모순의 주제입니다. 인공 지능 (AI) 안정성에 대해 논의하기 전에 AI가 우리의 사고와 의사 결정을 모델화하려고한다면 우리가 실제로 결정을 내리는 방법을 설명 할 수 있어야합니다! 안 그래?

관련 : 인공 지능과 미지에 대한 두려움

1950 년대 이후로 때때로 더 빠르고 때로는 더 느려진 머신 러닝 변환이 있습니다. 최근에 가장 많이 연구되고 눈에 띄는 영역은 의사 결정 시스템, 행동 및 반응을 모델링하는 것을 목표로하는 기계 학습입니다.

기계 학습 분야에서 얻은 성공적인 결과는 AI 구현의 급속한 증가로 이어졌습니다. 사전 작업은 자기 인식, 학습, 의사 결정 및 이동이 가능한 자율 시스템이 될 것을 약속합니다.

관련 : 기계 학습 입문을위한 13 개의 무료 사이트

특히 1990 년대 이후 딥 러닝의 개념은 과거를 기반으로하지만 재귀 신경망, 컨볼 루션 신경망, 강화 학습, 논쟁 적 네트워크가 눈에 띄게 성공적입니다. 성공적인 결과를 얻었지만 이러한 시스템의 결정과 행동을 인간 사용자에게 설명하거나 설명하는 것은 부적절합니다.

설명 가능한 인공 지능의 범위

수억 개의 계층화 된 인공 신경망으로 설계된 딥 러닝 모델은 오류가 없습니다. 특히 1 픽셀 공격의 경우처럼 단순히 오해를받을 때 빠르게 신뢰를 잃을 수 있습니다! 그러면 얼마나 성공했는지, 실패했는지에 대한 질문이 불가 피해집니다!

국방부 (DoD)는 더 스마트하고 자율적이며 공생하는 시스템이 도전에 직면하고 있다고 말합니다.

"설명 가능한 AI (특히 설명 가능한 기계 학습)는 미래의 전투원이 새로운 세대의 인공 지능 기계 파트너를 이해하고 적절하게 신뢰하며 효과적으로 관리하려면 필수적입니다."

이러한 유형의 고급 응용 프로그램의 복잡성은 성공에 따라 증가하고 이해 및 설명이 어려워집니다. 일부 회의에서도이 주제를 논의하는 세션 만 있습니다.

새로운 머신 / 딥 러닝 시스템의 이유

새로운 머신 / 딥 러닝 시스템의 이유를 설명하고, 강점과 약점을 결정하고, 미래에 어떻게 행동해야하는지 이해하기위한 것입니다. 이 목표를 달성하기위한 전략은보다 정의 가능한 모델을 생성 할 새롭거나 수정 된 인공 학습 기술을 개발하는 것입니다.

이러한 모델은 최종 사용자를 위해 모델을 이해하기 쉽고 유용한 설명 대화 상자로 변환 할 수있는 최첨단 인간-컴퓨터 대화 형 인터페이스 기술과 결합되도록 고안되었습니다.

세 가지 기본 기대치를 가지고 시스템에 접근하는 것이 바람직합니다.
▪. 시스템을 설계하고 사용하는 당사자가 어떻게 영향을 받는지에 대한 목적을 설명하십시오.
▪. 데이터 소스 및 결과가 사용되는 방법을 설명하십시오.
▪. AI 모델의 입력이 어떻게 출력으로 이어지는 지 설명하십시오.

“XAI는 기계가 작동하는 컨텍스트와 환경을 이해하고 시간이 지남에 따라 실제 현상을 특성화 할 수있는 기본 설명 모델을 구축하는 제 3 파 AI 시스템을 가능하게 할 것으로 예상되는 현재 DARPA 프로그램 중 하나입니다. .”

의료 행위에서 출발 한 경우, 환자 데이터를 검토 한 후 의사는 의사 결정 지원 시스템의 권장 사항에 대해 해당 환자에게 심장 마비 위험을 제안했다고 환자에게 이해하고 설명해야합니다.

이 단계에서 먼저 평가되는 데이터는 또 다른 중요한 기준입니다. 필요한 데이터와 적절한 평가를 위해 수행해야하는 작업을 식별하는 것도 중요합니다.

설명의 심리학

인공 지능이 어떻게 결정을 내 렸는지 설명 할 수 없기 때문에 인공 학습 기술 사용을 거부하는 지점을 살펴 보겠습니다. 반면에 너무 많은 사람들이 어떻게 결정을 내 렸는지 설명하지 못합니다!

사람이 모델 수준에서 어떻게 결정을 내 렸는지 상상해 봅시다. 화학적 및 물리적 수준에서 생물학적 구조에 접근 할 때 우리는 한 뇌 세포에서 다른 뇌 세포로의 전기 신호에 대해 이야기하고 있습니다. 이 설명이 만족스럽지 않다면 어떻게 커피를 주문하기로 결정했는지 알려주세요!

친구 중 한 명이 아이스 커피를 주문하고 다른 한 명은 뜨거운 커피를 주문했고 다른 한 명은 카페에서 차 한 잔을 주문했습니다. 그들은 왜 아이스 커피와 뜨거운 커피를 선택합니까? 누구든지 뇌의 화학 물질과 시냅스를 설명 할 수 있습니까? 설명 할 수 있습니까? 그런 설명을 원하십니까? 그게 뭔지 알아? 인간이 자신의 결정에 대한 이야기를 만들기 시작합니다! 바라건대, 당신이들을 수있는 환상적인 이야기가 될 것입니다.

입력 및 출력 데이터를보고 재미있는 이야기를 들려주세요! 실제로 분석적이고 중요한 문제에 대한 유사한 접근 방식이 있습니다. 해석, 투명성, 명료성은 분석적이며 테스트가없는 분석은 안전감을 유발하는 편도 열차 티켓과 같습니다.

완벽한 조건에서;
▪, 최고의 성능을내는 시스템,
▪. 당신은 최선의 설명을 원합니다.

그러나 실생활은 우리가 선택하도록 강요합니다.

성능 대 설명 가능성

해석: 이해하지만 잘 작동하지 않습니다!

공연: 당신은 이해하지 못하지만 잘 작동합니다!

특히 학계, 연구자 및 기술 회사는 일반적으로 성과에 더 많은 중요성을 부여 할 정도로 많은 관심을 기울이지 않습니다. 그러나이 분야에 관련된 사람과 기관의 시나리오는 약간 다릅니다. 그들은 신뢰를 원하고 설명을 기다리고 있습니다.

AI 접근 방식은 은행, 보험 회사, 의료 서비스 제공 업체 및 기타 산업별로 다릅니다. 이는 이러한 부문의 모델이 서로 다른 법적 규정과 윤리적 요구 사항을 가져 오기 때문입니다. 이 경우 우리는 다시 같은 지점에 도달합니다. 다음과 같은 조건에서 시스템을 설명하려면 지금은 너무 강하지 않은 간단한 시스템으로 교체해야합니다!

이 주제에 대한 연구는 대부분 DARPA, Google, DeepMind 등입니다. 기관은 계속해서 집중적으로 수행되지만 보고서에서 이해됩니다. 인공 지능 시스템이 어떤 분야를 사용하든 상관없이 명확성과 정확성 사이에는 절충이 불가피하고 잠시 지속되는 것처럼 보입니다.

결국 인공 지능은 인과 관계를 형성하지 않고 우리가 추구하게 될 신성한 힘으로 변형되어서는 안됩니다. 반면에 우리에게 제공 될 통찰력을 무시해서는 안됩니다.

기본적으로 우리는 기술 및 학문적 수준의 지식을 보유한 전문가와 다양한 분야 및 분야의 의견을 바탕으로 함께 작동 할 수있는 유연하고 해석 가능한 모델을 만드는 것에 대해 생각해야합니다.

감사

피드백에 대해 Başak Buluz, Yavuz Kömeçoğlu ve Hakan Aydemir에게 진심으로 감사드립니다.


비디오보기: 산업 인공지능Industrial AI이란 무엇인가? (할 수있다 2022).