알고리즘 편향의 힘, 알고크라시

알고리즘 편향은 알고리즘이 의사 결정에 편향된 결과를 도출하는 현상을 말한다. 좀 더 자세히 알아보자.
알고리즘 편향의 힘, 알고크라시
Valeria Sabater

작성 및 확인 심리학자 Valeria Sabater.

마지막 업데이트: 07 7월, 2024

채용 공고를 검색하거나 고객 서비스에 불만을 제기하기, 금융 상품을 알아보기, 비행기표나 호텔 예약, 소셜 미디어상의 뉴스, 정보, 광고 등 알고리즘은 생각보다 많은 분야와 일상에 얽혀서 알고리즘 편향이라는 현상을 유발한다.

알고리즘은 알게 모르게 점점 더 조용히 세상을 움직이고 있다. 가장 놀라운 점은 데이터를 습득하며 계속 효율적으로 발전한다는 것이다. ‘사용자’로 코딩된 인간에게 지속적으로 적응하며 더 빠르며 만족스러운 맞춤형 경험을 제공하려고 노력한다.

이런 식으로 데이트 응용 프로그램을 통해 사용자 기호에 맞춰 매우 구체적인 일련의 후보를 제시하여 선택을 중재할 수도 있다. 알고리즘 편향이 심지어 정치적 결정에 영향을 미친다는 주장이 나올 정도다.

알고리즘은 편리한 삶을 위한 수단이지만 개인의 결정에 큰 영향을 미칠 수 있다.

더 읽어보기: 둠스크롤링은 무엇이며 왜 멈춰야만 하는가?

알고리즘 챗봇
알고리즘은 인간을 정보 창에 가두어 놓을 수 있다.

알고리즘 편향이란?

알고리즘은 삶을 편리하게 만든다. 자연을 사랑하고 보호하려는 사용자라면 소셜 미디어에서 관련된 정보를 더 많이 검색할 가능성이 크다. 하지만 검색하는 정보가 건전하지 않으면 상황이 달라진다.

몰리 러셀의 끔찍한 사례를 기억하자. 이 십 대는 자살과 관련된 주제를 검색했고 그녀의 소셜 네트워크에는 자살 관련 콘텐츠만 보였다. 자신도 모르는 사이에 자살 외에 다른 트렌드와 다양한 콘텐츠가 유입되지 않은 것이다.

알고리즘 편향은 사용자가 받는 정보와 결정에 대한 잘못된 통제 감각이다. 일상에 편향된 데이터를 계속 제공할 수 있지만 항상 숨겨진 관심사도 존재할 수 있다.

알고리즘이 사용자를 위해 내리는 결정

인공 지능이 점점 더 많이 사용되면서 잘못된 통제감과 자기 효능감을 느끼게 한다. 챗GPT의 사용이 논문, 학술 작업, 끝없는 일상 업무에까지 도움이 되면 그 느낌은 훨씬 더 강해질 것이다.

편리하고 효율적이지만 사용자 대신 챗봇이 관련 작업을 수행하면서 앞서 언급한 알고리즘 편향이 강해져서 의사 결정에 편향된 결과를 도출할 수 있다.

불공평한 알고리즘

수학자인 캐시 오닐은 ‘대량 살상 수학 무기(2016)’라는 저서에서 알고리즘을 ‘대량 살상 무기’로 묘사했다. 이러한 계산적 가치는 배후 이익은 물론 도덕적, 문화적 편견에서 면제되지 않는다.

오닐은 알고리즘에 의해 수행된 부정적인 평가로 해고된 교사 사례를 이야기한다. 교사의 개인 메시지, 의료 보고서, 모기지나 지원 할당 데이터를 평가하는데 특정 인종 집단은 불리한 위치에 있을 수 있다.

회사와 조직 대부분은 이러한 분석을 빠르게 진행한다. 알고리즘 편향은 알고리즘이 분석하는 내용이 공정하지 않더라도 항상 유효하다고 믿고, 개인적으로 대조하지 않는다.

챗봇과 알고리즘을 갖춘 기술은 계속 유지될 것이며 인류의 작업과 결정 상당 부분에 영향을 미칠 것이다.

알고크라시(Algocracy): 정치에 봉사하는 알고리즘

흔히 정치인은 국민의 현실을 모른다고 말한다. 정치인들이 예산을 낭비하거나 빠른 입법 처리를 하지 못해서 국민의 요구를 충족시키지 못하기 때문에 의문을 제기한다.

최근 딜로이트 컨설팅은 알고리즘과 인공 지능이 정치인의 업무 중 상당 부분을 대신할 수 있다는 주장을 발표했다. 대기업이 휴대전화로 수집한 소비자 데이터를 간단히 분석하여 더 적절한 사회 반응을 유도할 것으로 예측한다.

인공 지능도 훈련을 통해 올바른 정치 경영을 할 수 있다. 수많은 자문가를 대체하는 분석 능력으로 업무를 무한대로 줄일 수 있다. 정치인을 대체하는 알고리즘의 힘으로 이해되는 알고크라시는 디스토피아적으로 보일 수 있지만 실제로 가능한 일이다.

위트레흐트 대학교는 알고리즘이 정부 조직의 모든 관료적 측면을 대체하는 것이 유익할 수 있다는 연구를 수행했다. 국민은 정치인보다 기계가 수행하는 관리를 더 신뢰하는 경향이 있기 때문인데 이 역시 편견일 수 있다.

알고리즘 알고크라시
대기업이 프로그램한 알고리즘은 목표와 메커니즘이 절대 투명하지 않다.

마무리

알고리즘 편향은 점점 강해지고 있다. 수많은 구매 행동, 소셜 네트워크상의 관심사, 진실이라고 믿는 아이디어 등이 자유 의지의 산물이 아닌 알고리즘 편향의 산물일 수 있다.

특히 사회적 비교를 기반으로 한 디지털 세계에 살며 불행에 빠진 젊은이들은 알고리즘 편향을 강하게 겪을 것이다. 알고리즘은 저절로 발생하는 개체가 아니다. 대기업이 프로그램한 알고리즘에는 항상 기업 목표가 있다.

인간과 인공 지능이 함께 일하는 미래를 위해서는 더 윤리적이고 공정하며 건전한 가치를 바탕으로 인공 지능을 훈련하고 프로그래밍하여 규제할 필요가 있다.


인용된 모든 출처는 우리 팀에 의해 집요하게 검토되어 질의의 질, 신뢰성, 시대에 맞음 및 타당성을 보장하기 위해 처리되었습니다. 이 문서의 참고 문헌은 신뢰성이 있으며 학문적 또는 과학적으로 정확합니다.



이 텍스트는 정보 제공 목적으로만 제공되며 전문가와의 상담을 대체하지 않습니다. 의심이 들면 전문가와 상의하십시오.