Home Tech 국제앰네스티 전문가 Meredith Broussard: “인종차별, 성차별, 경쟁은 구조적 문제” | 인공지능(AI)

국제앰네스티 전문가 Meredith Broussard: “인종차별, 성차별, 경쟁은 구조적 문제” | 인공지능(AI)

0
국제앰네스티 전문가 Meredith Broussard: “인종차별, 성차별, 경쟁은 구조적 문제” |  인공지능(AI)

에레디스 브루사드 그는 인공 지능(AI)의 편견에 중점을 두고 연구하는 데이터 저널리스트이자 학자입니다. 그녀는 비지도 AI에 대한 인식을 높이고 경종을 울리는 데 앞장서 왔습니다. 그녀의 이전 책, 인공 지능 없음 (2018), 우리의 문제를 해결하기 위한 기술적 솔루션의 우월성에 대한 맹목적인 믿음을 설명하기 위해 “기술 쇼비니즘(techno-chauvinism)”이라는 용어를 만들었습니다. 넷플릭스 다큐멘터리에 등장 코딩된 편향 (2020), 알고리즘이 차별을 인코딩하고 전파하는 방법을 탐구합니다. 그녀의 새 책 통해: 기술의 인종, 성별, 능력 편향에 맞서기. Brossard는 뉴욕 대학교 Arthur Carter 저널리즘 연구소의 부교수입니다.

편견이 우리의 기술 시스템에 포함될 수 있다는 메시지는 사실 새로운 것이 아닙니다. 이 책이 필요한 이유는 무엇입니까?
이 책은 사람들이 기술이 가져올 수 있는 실제적인 사회적 피해를 이해하도록 돕는 것에 관한 것입니다. 우리는 알고리즘 편향과 사람들이 겪은 피해에 대한 훌륭한 저널리즘과 학문이 폭발적으로 증가했습니다. 나는 그 보고서와 반성을 제기하려고 노력합니다. 또한 알고리즘 시스템에서 편향을 측정할 수 있는 방법이 있음을 사람들이 알기를 바랍니다. 그들은 완전히 알려지지 않은 블랙박스가 아닙니다. 감사가 존재하고 수행될 수 있습니다.

문제가 “버그 이상”인 이유는 무엇입니까? 모든 사람을 대표하지 않는 편향된 데이터 세트를 사용하도록 훈련되었기 때문에 알고리즘이 인종차별적이고 성차별적일 수 있다면 답은 더 대표적인 데이터가 아닐까요?
오작동이란 쉽게 고칠 수 있는 일시적인 것을 말합니다. 인종 차별, 성 차별, 무력감은 사회에 숨겨져 있기 때문에 기술 시스템에 내장된 시스템 문제라고 주장합니다. 수정 사항에 더 많은 데이터가 포함되어 있으면 좋을 것입니다. 그러나 근본적인 문제가 사회라면 더 많은 데이터가 우리의 기술 시스템을 고치지 못할 것입니다. 모기지 승인 알고리즘을 사용하여 발견되었습니다 백인보다 유색인 차용인이 거절당할 가능성이 40-80% 더 높습니다. 그 이유는 과거에 누가 주택담보대출을 받았는지에 대한 데이터를 사용하여 알고리즘을 학습시켰고, 미국에서는 대출에 있어 오랜 차별의 역사가 있기 때문입니다. 더 나은 데이터가 없기 때문에 더 나은 데이터를 제공하여 알고리즘을 수정할 수 없습니다.

당신은 우리가 우리의 삶과 사회에 허용하는 기술에 대해 더 선별적이어야 한다고 주장합니다. 편견을 부호화하는 AI 기반 기술을 거부해야 할까요?
오늘날 인공 지능은 우리의 모든 기술에 포함되어 있습니다. 그러나 우리는 우리의 기술이 모든 사람에게 잘 작동하도록 요구할 수 있으며 사용 여부에 대해 신중한 선택을 할 수 있습니다.

나는 구별하는 데 열정적입니다. 유럽연합 인공지능법 상황에 따라 용도를 고위험 및 저위험으로 나눕니다. 위험도가 낮은 안면 인식이 이를 사용하여 휴대전화의 잠금을 해제할 수 있습니다. 그러나 치안에서 안면 인식은 규제가 필요한 매우 위험한 사용일 수 있습니다. 또는 허위 체포로 이어지고 그다지 효과적이지 않기 때문에 전혀 공개되지 않는 것이 좋습니다. 컴퓨터를 어떤 용도로 사용하지 않는다고 해서 세상이 끝나는 것은 아닙니다. 기술 시스템이 존재한다고 해서 그 시스템이 좋다고 가정할 수는 없습니다.

인공 지능을 사용하여 질병을 진단하는 데 열광하고 있습니다. 그러나 대표성이 없는 데이터 세트(예: 피부암 AI 시스템)를 포함하여 인종적 편견도 추출됩니다. 그것은 대부분 훈련 데이터에 있는 것이기 때문에 아마도 더 밝은 피부에서 가장 잘 작동할 것입니다). 우리가 시도해야 의료 알고리즘의 편견에 대해 “허용 가능한 임계값”을 설정하려면 일부가 제안한 바와 같이?
저는 세상이 그런 대화를 할 준비가 되어 있지 않다고 생각합니다. 우리는 여전히 의료계의 인종차별에 대한 인식을 높여야 할 수준에 있습니다. 우리는 한 걸음 물러서서 알고리즘에 고정시키기 전에 사회에 대한 몇 가지 사항을 수정해야 합니다. 법으로 성문화된 인종차별적 결의안은 보기도, 근절하기도 어려워진다.

귀하는 유방암 진단을 받았으며 성공적인 치료를 받았습니다. 진단 후 암 탐지를 위한 오픈 소스 AI를 통해 유방조영술을 실행하는 실험을 했고 그것이 실제로 유방암을 발견했음을 발견했습니다. 그것은 효과가 있었다! 좋은 소식이요?
내 종양이 있던 체크 영역 주위에 AI가 빨간색 상자를 그리는 것을 보는 것이 좋았습니다. 하지만 저는 이 경험을 통해 진단 AI가 제가 상상했던 것보다 훨씬 더 간단한 도구이며 복잡한 절충안이 있다는 것을 배웠습니다. 예를 들어 개발자는 정확도 비율을 결정해야 합니다. 더 많은 거짓 긍정 또는 거짓 부정? 그들은 무언가를 놓치는 것이 더 나쁜 것으로 간주되기 때문에 전자를 선호하지만, 잘못된 양성이 있으면 진단 파이프라인으로 들어가 몇 주 동안 공황 및 침습적 테스트를 의미할 수 있음을 의미합니다. 많은 사람들이 기계가 의사를 대체하는 날렵한 AI 미래를 상상합니다. 이것은 나에게 유혹적으로 들리지 않습니다.

알고리즘을 개선할 수 있는 희망이 있습니까?
나는 알고리즘 감사의 잠재력에 대해 낙관적입니다. 즉, 입력과 출력 및 알고리즘 코드를 살펴보고 편견이 없는지 평가하는 프로세스입니다. 내가 완료 약간의 일 이에. 목표는 특정 컨텍스트에서 사용되는 알고리즘에 집중하고 영향을 받는 커뮤니티 구성원을 포함한 모든 이해 관계자의 문제를 해결하는 것입니다.

AI 챗봇이 주류다. 그러나 기술에도 편견이 가득합니다. OpenAI의 ChatGPT에 방화벽이 추가되었습니다. 이동하기 쉽습니다.. 우리는 어디에서 잘못 되었습니까?
해야 할 일이 더 있지만 가드레일에 감사드립니다. 과거에는 그렇지 않았으니 발전하고 있습니다. 그러나 우리는 또한 AI가 매우 예측 가능한 방식으로 실패할 때 놀라지 말아야 합니다. ChatGPT에서 볼 수 있는 문제는 예상하고 쓴 팀닛 게브루(Timnit Gebru)를 포함한 AI 윤리 연구원 [who was forced out of Google in late 2020]. 우리는 이 기술이 마법이 아님을 깨달아야 합니다. 그것은 사람들에 의해 조립되고, 문제가 있고, 무너집니다.

OpenAI 공동 창립자 Sam Altman 최근 AI Doctors로 승격 의료 위기를 해결하는 방법으로. 그는 2단계 의료 시스템을 제안하는 것 같습니다. 하나는 인간 의사와의 상담을 즐기는 부유층을 위한 것이고 다른 하나는 우리가 인공 지능을 보는 우리를 위한 것입니다. 상황이 이렇고 걱정되시나요?
의학 분야의 AI는 잘 작동하지 않습니다. 따라서 매우 부유한 사람이 “이봐, AI가 당신의 건강 관리를 할 수 있고 우리는 의사를 우리끼리만 둘 것”이라고 말한다면 그것은 오히려 문제인 것 같습니다. 우리를 더 나은 세상으로 이끄는 것보다 또한 이러한 알고리즘은 모든 사람이 사용할 수 있으므로 문제를 해결할 수도 있습니다.

LEAVE A REPLY

Please enter your comment!
Please enter your name here