알고리즘 편향
From Wikipedia, the free encyclopedia
알고리즘 편향(영어: algorithmic bias)은 알고리즘이 원래 의도한 기능과는 다르게 한 범주를 다른 범주보다 "특혜"를 주는 등 "불공정"한 결과를 만들는 컴퓨터 시스템의 체계적이고 반복 가능한 오류를 말한다.
편향은 알고리즘의 설계, 의도하지 않았거나 예상치 못한 사용, 또는 알고리즘을 훈련시키기 위해 데이터를 코딩, 수집, 선택, 사용하는 방식과 관련된 결정을 포함한 그밖의 다양한 요인으로 인해 발생할 수 있다. 검색 엔진 결과와 소셜 미디어 플랫폼 등에서 알고리즘 편향이 관찰되었다. 이러한 편향은 의도치 않은 개인정보 침해부터 인종, 성별, 젠더, 민족성에 대한 사회적 편견 강화에 이르기까지 다양한 영향을 미칠 수 있다. 알고리즘 편향에 대한 연구는 "체계적이고 불공정한" 차별을 반영하는 알고리즘에 가장 큰 관심을 두고 있다. 이러한 편향은 최근에 와서야 유럽연합의 "일반 데이터 보호 규정"(2018) 및 제안된 "인공지능법"(2021)과 같은 법적 틀에서 다루어지고 있다.
알고리즘이 사회, 정치, 제도 및 행동을 조직하는 능력을 확장함에 따라 사회학자들은 예상치 못한 데이터의 출력과 조작이 실제 세계에 어떤 영향을 미칠 수 있는지에 대해 관심을 갖게 되었다. 알고리즘은 종종 중립적이고 편견이 없는 것으로 간주되기 때문에 (부분적으로는 자동화 편향이라는 심리적 현상으로 인해) 인간의 전문 지식보다 더 큰 권위를 부정확하게 투영할 수 있으며, 경우에 따라 알고리즘에 대한 의존이 결과에 대한 인간의 책임을 대체할 수 있다. 편향은 기존의 문화적, 사회적 또는 제도적 기대의 결과로 알고리즘에 유입될 수 있다. 알고리즘 설계의 기술적 한계, 또는 예상치 못한 상황에서의 사용, 소프트웨어의 초기 설계에서 고려되지 않은 잠재 고객의 사용 등도 원인이 될 수 있다.[2]
알고리즘 편향은 선거 결과에서 온라인 혐오 발언의 확산에 이르기까지 다양한 사례에서 언급되었다. 또한 형사 사법, 의료, 채용 분야에서도 알고리즘 편향이 발생하여 기존의 인종적, 사회경제적, 성별 편견을 더욱 심화시키고 있다. 불균형한 학습 데이터세트 때문에 얼굴 인식 기술이 상대적으로 어두운 피부색의 얼굴을 정확하게 식별하지 못하는 현상은 여러 건의 흑인 남성의 부당한 체포와 관련이 있다. 일반적으로 영업 비밀로 취급되는 알고리즘의 독점적 특성으로 인해 알고리즘 편향을 이해하고, 연구하고, 발견하는 데 지속적으로 문제가 되고 있다. 완전한 투명성이 제공되더라도 특정 알고리즘의 복잡성은 그 기능을 이해하는 데 장애가 될 수 있다. 또한 알고리즘은 분석을 위해 예상하거나 쉽게 재현할 수 없는 방식으로 변경되거나 입력 또는 출력에 응답할 수 있다. 단일 웹사이트나 애플리케이션 내에서도 조사해야 할 단일 "알고리즘"이 없으며, 동일한 서비스 사용자 간에도 상호 관련된 많은 프로그램과 데이터 입력으로 구성된 네트워크가 존재하는 경우가 많다.