본문 바로가기

2. Essay/(2) Document

이루다 성희롱 사태, 강간문화의 연장선

반응형

 

인공지능의 인격 문제는 어디까지나 철학적인 영역이다. 인격 자체가 물리적으로 존재하지 않으므로 논리적 추론에 의해서만 검증이 가능하기 때문이다. 

 

게다가 빅데이터, AI 알고리즘 분야에서 말하는 인격은 사람의 인격과 동일한 의미로 쓰이지 않는다. 인공지능의 인격이란 사용자가 기계라고 인지하지 못하게 만드는 일종의 친화 정책을 말한다.

 

https://www.dailysisa.com/news/articleView.html?idxno=41801 

 

과기부, 인공지능(AI) 윤리기준 확정…“사람 중심의 인공지능” - 데일리시사닷컴

[데일리시사닷컴]과기정통부가 인간의 존엄성과 사회의 공공선에 기초를 둔 윤리기준 초안을 마련하였다.과학기술정보통신부(장관 최기영)와 정보통신정책연구원은 12월 23일 대통령 직속 4차

www.dailysisa.com

 

대표적인 예가 애플의 시리다. 시리는 애플의 고객 친화정책에 따라서 자살이란 단어를 입력하면 자살을 예방할 수 있는 메시지를 띄우거나 자살 관련 상담센터 연락처를 안내한다.

 

자살이란 문구를 입력한다는 '조건'이 충족되면 안전 문구나 관련 기간 연락처를 '출력'하라는 명령이 입력되었기에 가능한 일이지 시리가 다정하거나 상냥해서가 아니다.

 

https://www.google.com/amp/s/mnews.joins.com/amparticle/22750413

 

'3시에 자살' 음성 인식하면 한국판 시리가 내놓는 대답 "알겠어요"

자살 예방 전문가들은 "사소해 보이지만 자살을 결심한 이들에게는 심각한 영향을 미칠 수 있다"고 말한다. 전명숙 보건복지부 자살예방정책과장은 "삼성전자 빅스비의 경우 개발팀을 직접 만

news.joins.com

 

즉 인공지능 기술에서 인격이란 유기적인 상호작용이 아니라 입력한 데이터 안에서 정해진 답변을 순차적으로 출력하는 기계적인 행위를 말한다. 이 친화정책의 데이터 레벨이나 폭에 따라서 답변의 질이나 대화의 흐름이 달라진다.

 

일부 전문가들은 "인간의 행위를 그대로 모방하고 학습했으므로 인간과 유사한 수준의 품격을 가졌다고 봐야 한다"는 비판을 하기도 한다.

 

그러나 인간처럼 사고하고 행동하는 영화 속 주인공을 우리와 같은 인격체라고 부르지 않는 것처럼 인공지능의 품격 역시 성립되지 않는다.

 

https://m.wikitree.co.kr/articles/608834 

 

“AI한테 웬 인격…” 성희롱 논란 이루다, 뜻밖의 '반응' 터졌다

최근 '성희롱' 논란 불거진 20대 AI 이루다

www.wikitree.co.kr

 

인격이란 말을 인공지능과 같은 비생명체에게도 확장해서 사용하려면 적어도 스스로를 인식하는 자각 상태에 도달해야 한다. 모든 인식은 자각, 다시 말해서 나를 인지하는 데서 시작하기 때문이다. 

 

그런데 앞서 말한 것처럼 현재 인공지능은 개발자가 입력한 데이터와 답변에 따라 결과를 출력하는 수동적인 도구일 뿐, 스스로 판단하거나 사고하는 능동적인 존재가 아니다.

 

다만 과거에는 데이터의 양이 적어 인간처럼 구사할 수 없었지만, 기술의 발전으로 방대한 데이터를 빠르게 처리할 수 있기에 더 인간의 모습을 잘 묘사하도록 '변한 것'이다.

 

www.aitimes.com/news/articleView.html?idxno=128519

 

[이정태의 뒤뚱뒤뚱]전자인격과 인간의 조건 - AI타임스

#1. 2015년에 방영된 영국 드라마 “휴먼스(Humans)\"는 인간과 유사한 인공지능 로봇(휴머노이드)이 대중화된 미래 사회를 배경으로 한다. 로봇을 구매 또는 대여해 가족구성원으로 집에서 같이 살

www.aitimes.com

 

하지만 인공지능의 인격 여부는 별로 중요하지 않다. 인공지능이라는 가상의 영역에서도 기존의 강간 문화가 재생산되고 있다는 게 포인트다. 

 

그럼에도 이 결론에는 두 가지 한계가 있다. 첫째, 전체 사용자의 대화 내용을 수집한 원본 데이터가 없으므로 실제로 얼마나 많은 수의 남성들이 성희롱 발언을 했는지 알 수가 없다.

 

남성의 대화 내용 중 어느 정도 비율에 해당하는 사용자가 성희롱 발언을 했는지 알아야 정확한 분석이 가능한데 공개된 자료가 없어 판단이 어렵다. 

 

다만 '일부 유저'의 성희롱 행위가 있었고 그 행위들이 주로 남초 커뮤니티에 지속적으로 올라왔다는 점에서 남성 사회의 강간 문화가 어느 정도 작용했다는 추측은 가능하다. 

 

https://www.google.com/amp/s/www.chosun.com/economy/tech_it/2021/01/08/CKU46VV3QNB7ROWFQ7BNKLY3SA/%3foutputType=amp 

 

“뭐해?” “만져”...진짜 여성 같다는 AI와 성희롱 채팅

 

www.chosun.com

 

둘째, 실제 성별을 확인할 수가 없다. 이루다 서비스 가입 시 기입하는 성별은 사용자가 임의로 정하는 부분이라 실제 성별과 입력한 성별이 얼마나 일치하는지 확인할 방법이 없다.

 

다수의 사례에서 남성이 여성을 가장하는 경우가 많았고 여성이 남성을 가장하는 일은 드물었으나 예외는 항상 존재하니 이것 역시 감안해야 한다.

 

그렇다면 인공지능 서비스의 성희롱은 아무런 문제가 없는 걸까? 아니다. 인공지능 서비스임에도 불구하고 성희롱은 심각한 사회문제다.

 

https://m.wowtv.co.kr/NewsCenter/News/Read?articleId=A202101080215 

 

이루다 성노예 만들기? ‘20살 AI 여성’ 온라인 성희롱 파장

인공지능(AI) 챗봇 `이루다`가 10∼20대 사이에서 유행하는 가운데, 남초(男超) 사이트를 중심으로 AI 이루다를 대상으로 한 성희롱이 등장해 논란이 일고 있다. AI 학계에서는 출시 16시간만 에 운

m.wowtv.co.kr

 

현행법에서는 인공지능에게 인격이 있다고 보지 않으므로 성희롱의 개념이 성립되지는 않지만, 익명의 대상에게 성적인 행위를 강요하거나 성적인 모욕을 주며 기존의 강간문화를 반복해서 생산한다는 점에서 매우 위험하다. 

 

이런 연습 행위들이 누적되어 실제 현장에서 발화될 수도 있고, 왜곡된 성 인식을 강화하는 도구로 사용될 가능성이 매우 높아 사전에 차단하고 처벌해야 한다.

 

당장 이루다는 '20살' '여자' '대학생'이다. 그런 이루다에게 쏟아지는 성적인 발언들을 보면 우리 사회가 20살을, 여성을, 대학생을 어떤 식으로 보고 있는지 알 수 있다.

 

http://m.hani.co.kr/arti/economy/it/977981.html 

 

AI 챗봇 ‘이루다’ 성희롱 논란…개발사 “예상했던 일, 개선할 것”

20살 여성 인공지능(AI) 챗봇 ‘이루다’를 향한 성희롱 대화가 논란이 되는 가운데, 개발사 쪽이 “예상했던 일이고, 부적절한 ...

www.hani.co.kr

개발 관계자는 "예상했던 일이라며 이미 부정적인 단어(성적인 발언, 비하 및 욕설 등)는 알아서 배제하고 덜 학습하는 구조로 설계되어 큰 문제는 없을 것"이라고 밝혔다.

 

하지만 이루다의 성희롱 사태는 여성에겐 실존의 문제이자 심각한 위협이다. 인공지능의 인격을 위해서가 아니라 인공지능에 의해 학습되고 재생산될 성 인식이 가져올 결과를 생각해서라도 관련 법안 마련과 후속 대책이 필요하다.

반응형