여러 가지 잡다한

새로운 AI 도구는 AI가 작성한 가짜 뉴스 및 리뷰와 싸우는 데 도움이 될 수 있습니다.

새로운 AI 도구는 AI가 작성한 가짜 뉴스 및 리뷰와 싸우는 데 도움이 될 수 있습니다.

지난 몇 달 동안 AI 도구는 대중을 조종하는 데 사용되어 왔고 사용할 수있는 방식에 대해 심각한 우려를 불러 일으켰습니다.

해결책은 무엇입니까? Harvard와 MIT의 연구원들에 따르면 단순히 Skynet을 분리하는 것보다 더 나은 솔루션이 있습니다.

AI를이기는 가장 좋은 방법은 실제로 AI를 사용하는 것입니다.

관련 : ELON MUSK의 NEURALINK 프레젠테이션에서 얻은 핵심 사항 : 뇌 질환 해결 및 AI 위협 완화

AI 대 AI

인공 지능은 가짜 뉴스를 퍼 뜨리고, 가짜 리뷰를 작성하고, 특정 의제로 댓글 섹션을 폭격하는 것을 목표로하는 소셜 미디어 사용자 척을 만드는 데 사용할 수 있습니다.

그러나 MIT 연구원들에 따르면, 이제는 인공적으로 생성 된 가짜 텍스트를 찾아내는데도 사용할 수 있습니다.

잘못된 정보에 대한 기술이 걱정할 정도로 빠른 속도로 발전하고 있지만 동일한 광범위한 도구 세트를 사용하여 이러한 유형의 잘못된 정보를 포착 할 수 있습니다. 가짜 뉴스, 딥 페이크 및 트위터 봇은 자신을 만드는 데 도움이 된 바로 그 기술에 의해 날이 늘어날 수 있습니다.

통계적 텍스트 패턴 감지

하버드 대학교와 MIT-IBM Watson AI Lab 연구원은 최근 AI로 생성 된 텍스트를 탐지하는 새로운 도구를 개발했습니다.

GLTR (Giant Language Model Test Room)이라고하는이 도구는 AI 텍스트 생성기가 텍스트에서 상당히 예측 가능한 통계 패턴을 사용한다는 사실을 활용합니다.

이러한 패턴은 일반 독자에게는 찾기 쉽지 않을 수 있지만 알고리즘이이를 잘 수행 할 수있는 것 같습니다. 기본적으로 AI 도구는 텍스트가 사람이 작성하기에는 너무 예측 가능한지 여부를 알 수 있습니다.

어떻게 작동합니까?

GLTR은 문장에서 한 단어가 차례로 선택되는 통계적 확률을 조사하여 텍스트의 예측 가능성을 테스트합니다.

우리는 1984 도구를 통해 George Orwell이 자신의 걸음을 밟고 그가 실제로 미래에서 시간을 거슬러 보내진 AI가 아님을 증명하기 위해.

예측하기 어려운 단어는 자주색으로 표시됩니다. 텍스트 전체에 이러한 단어가 뿌려지면 사람의 손으로 작성되었을 가능성이 높습니다.

반면에 녹색 단어가 가장 예측 가능한 반면 노란색과 빨간색은 그 사이에 있습니다.

물론, 우리는 텍스트 생성 기계 학습 도구가이 보라색 단어에 대해 훈련되어 더 많은 인간이되어 GLTR을 속일 수있는 미래를 상상할 수 있습니다. 여기 GLTR 연구자들이 따라갈 수 있기를 바랍니다.

AI 대 인간?

GLTR을 테스트하기 위해 연구원들은 Harvard 학생들에게 AI에서 생성 된 텍스트를 식별하도록 요청했습니다. 먼저 도구를 사용한 다음 도구를 사용하지 않았습니다.

학생들은 모든 가짜 텍스트의 절반 만 스스로 발견했습니다. 반면 도구를 사용하면 72 %를 발견했습니다.

이 실험은 인간과 인공 지능 (미래에 대한 섬뜩한 예표)을 움켜 쥐었지만 연구원 중 한 명이 궁극적 인 목표가 다르다고 말합니다.

“우리의 목표는 인간과 AI 협업 시스템을 만드는 것입니다.”라고 Ph.D. Sebastian Gehrmann. 프로젝트에 참여한 학생은 GLTR에 대한 릴리스에서 MIT에 말했습니다.

새 도구를 직접 사용해보고 싶다면 여기에서 찾을 수 있습니다. 연구자들은 최근 실험과 새로운 도구를 자세히 설명하는 논문을 발표했습니다.

미래에는 믿을 수있는 세계 지도자들의 딥 페이크 동영상으로 엄청난 정치적 불안이 발생할 수 있으며, AI에서 생성 된 텍스트를 활용하여 잘못된 정보를 대량으로 퍼뜨릴 수 있습니다. 고맙게도 동일한 기술이 문제에 대한 해결책을 제공 할 수도 있습니다.


비디오보기: In My Blood - TXT 투모로우바이투게더 LIVE Ver. (유월 2021).