여러 가지 잡다한

로봇 윤리 : 로봇에 적용된 인간 윤리

로봇 윤리 : 로봇에 적용된 인간 윤리

에서 1940 년대, 미국 작가 Isaac Asimov는 충돌에 직면했을 때 다음 세 가지 법칙을 면제하고 준수해야하는 방식으로 지능형 로봇을 프로그래밍해야한다고 주장하며 로봇 공학의 세 가지 법칙을 개발했습니다.

  • 로봇은 인간에게 해를 입히지 않으며, 행동하지 않음으로써 인간이 해를 입게해서는 안됩니다.

  • 로봇은 제 1 법칙과 충돌하는 경우를 제외하고는 인간의 명령에 따라야합니다.

  • 로봇은 그러한 보호가 제 1 법칙 또는 제 2 법칙과 충돌하지 않는 한 자신의 존재를 보호해야합니다.

Isaac Asimov의 로봇 법칙은 짧은 SF 소설에서 처음 소개되었습니다. 뛰어 다니다, (PDF) Astounding Science Fiction 1942 년 3 월호에 게재되었습니다.

현재로 거의 80 년이 지난 지금, Asimov의 로봇 공학의 세 가지 법칙은 로봇 공학자들이 해결하는 것보다 더 많은 문제와 갈등을 나타냅니다.

로봇 공학자, 철학자 및 엔지니어는 기계 윤리에 대한 지속적인 논쟁을보고 있습니다. 기계 윤리 또는 로봇 윤리는 로봇에 대한 윤리적 제재를 동시에 엔지니어링하고 제공하는 방법에 대한 실용적인 제안입니다.

자율 시스템이 인간에게 오작동을 일으키거나 해를 끼칠 때 누가 또는 무엇에 책임을지게 될까요?

현재 연구자들은 도덕적으로 수용 가능한 행동이 내장 된 인공 시스템의 설계 및 구현을 촉진하는 것을 목표로하는 추세를 따르고 있습니다.

윤리 및 로봇 윤리

윤리는 인간의 행동, 도덕적 평가, 선과 악, 옳고 그름, 정의와 불의에 대한 개념을 연구하는 철학의 한 분야입니다. 로봇 윤리의 개념은 로봇 응용 프로그램의 개발로 인해 발생하는 특정 문제 및 도덕적 딜레마와 관련된 근본적인 윤리적 성찰을 불러옵니다.

로봇 윤리 (기계 윤리라고도 함)는 로봇 설계 엔지니어가 로봇의 인공 지능에서 구현해야하는 행동 강령을 다룹니다. 이러한 종류의 인공 윤리를 통해 로봇 공학자들은 로봇이나 자율 주행 차량과 같은 다른 자율 시스템이 인간과 상호 작용하는 상황에서 자율 시스템이 윤리적으로 허용되는 행동을 나타낼 수 있음을 보장해야합니다.

보다 진보 된 로봇 공학이 등장하는 한 윤리적 문제는 계속해서 증가 할 것입니다. 에 로봇 공학의 윤리적 환경 (PDF) IEEE Robotics and Automation Magazine에서 발행 한 Pawel Lichocki et al.의 연구원들은 서비스 로봇과 치명적인 로봇이라는 두 가지 로봇 애플리케이션 세트에서 나타나는 다양한 윤리적 문제를 나열합니다.

서비스 로봇은 인간과 평화롭게 생활하고 상호 작용하기 위해 만들어지는 반면 치명적인 로봇은 군용 로봇으로 전장에서 싸우기 위해 만들어졌습니다.

에 따르면 로봇 공학의 윤리적 환경, Noel Shanky는 "로봇의인지 능력은 인간의인지 능력과 일치하지 않기 때문에 치명적인 로봇은 인간보다 실수를 더 쉽게 할 수 있기 때문에 비 윤리적"이라고 주장합니다. 그리고 Ronald Arkin은 "무인 시스템이 전장에서 완벽하게 작동 할 수는 없지만 인간보다 더 윤리적으로 수행 할 수 있습니다."라고 믿습니다.

부분적으로 전장에서 로봇을 사용하는 도덕성에 대한 질문에는 능력과 인공 지능의 유형 문제의.

군용 로봇 : 살인과 도덕적 책임을 위해 설계됨

군용 로봇은 확실히 현재의 것이 아닙니다. 그들은 제 2 차 세계 대전과 냉전으로 거슬러 올라갑니다. 독일 골리앗은 지뢰와 소련 텔레 탱크를 추적했습니다. 군용 로봇은 총을 발사하고, 폭탄을 해제하고, 부상당한 병사를 운반하고, 지뢰를 감지하고, 미사일을 발사하고, 비행하는 데 사용할 수 있습니다.

오늘날, 다른 기술을 로봇 공학에 적용하여 군용 로봇에 대한 다른 많은 용도가 개발되고 있습니다. 미군은 전투 유닛의 5 분의 1을 차지할 것입니다. 완전 자동화2020 년까지.

군용 로봇에 어떤 종류의 로봇 윤리가 포함될 것이며 누가 결정을 내릴까요? Asimov의 법칙은 인간을 죽 이도록 설계된 로봇에 적용될 수 없습니다.

또한 2020 년, 미군은 테스트를 할 것입니다 장갑 로봇 차량. 5 월 텍사스에서 시위가 열렸습니다.

로봇은 미래에 도덕적 행위자가 될까요?

로봇 윤리는보다 진보되고 정교한 로봇과 인공 지능 (AGI)이 우리 일상 생활의 필수 요소가 될 시대에 접어 들면서 점점 더 중요해질 것입니다.

따라서 첨단 로봇 공학의 윤리적, 사회적 문제에 대한 논쟁이 점점 더 중요 해져야합니다. 현재 로봇 공학의 성장과 인공 지능의 급속한 발전으로 인해 로봇 공학자와 인간은 일반적으로 조만간 준비해야합니다.

로봇 윤리에 대한 논의가 진행됨에 따라 로봇이 더 나은 세상을 만드는 데 기여할 것이라고 주장하는 사람들도 있습니다. 일부 다른 사람들은 로봇이 도덕적 행위자가 될 수 없으며 도덕적 의사 결정 능력이 내장되어 설계되어서는 안된다고 주장합니다.

마지막으로 아직은 아니지만 미래에 로봇은 도덕적 책임을 부여하는 도덕적 행위자가 될 수 있습니다. 그때까지 로봇의 엔지니어와 설계자는 창작물의 윤리적 결과에 대해 책임을 져야합니다.

즉, 로봇의 엔지니어와 디자이너는 자신이 디자인하고 세상에 내놓은 것에 대해 도덕적으로 책임 져야합니다.


비디오보기: 과학본색 윤리 결여된 인공지능의 모습은? YTN 사이언스 (할 수있다 2021).