파는 윤리: AI 윤리와 기업의 영향에 대하여

한혜정
KAIST 과학기술정책대학원 박사과정
hhj29@kaist.ac.kr

이 글은 본지에 수록된 정민석(Minseok Jung) 연구원의 글 “AI Principles and Philosophical Foundations of AI”[1]에 대한 응답이다. 해당 글과 본 글을 함께 읽을 것을 추천하지만, 독립적으로 읽어도 내용 이해에 문제가 없도록 작성하였다.

후원자가 되다

이십여 년 전이다. 미국 케임브리지에서 열린 ‘유전 기술과 사회(Genetic Technology and Society)’라는 회의에서 과학자와 윤리학자 사이에 설전이 벌어졌다. 본인이 설립한 게놈 회사의 연구를 옹호하는 과학자 스테파운손(Kári Stefánsson)과 이를 비판하는 윤리학자 티틀(Martin Teitel) 사이의 토론이었다. 스테파운손은 티틀을 향해 과학자도 아니면서 본인 회사의 과학을 평가할 권리가 있느냐며 따져 물었다. 이에 티틀은 그 논리대로라면 당신도 윤리학자가 아니니 윤리에 대해서는 말하면 안 된다는 반박으로 응수했다. 티틀의 반격에 크게 당황한 스테파운손이 이윽고 본인의 실수를 공개적으로 인정하며 토론은 잘 마무리되었지만, 이 토론이 그에게는 강렬한 인상을 남긴 모양이었다. 토론이 끝난 후 돌아가는 길에 스테파운손은, 반드시 윤리학자를 한 명 찾아 회사에 고용해야겠다며 결의를 다졌다고 한다.[2]

그 결의에 모든 기업인이 공감하기라도 한 것일까? 오늘날에는 과학기술 기반 회사에서 윤리를 다루는 모습을 어렵지 않게 찾아볼 수 있다. 어느 정도 몸집이 있는 회사라면 윤리학자 혹은 관련 전공자를 몇 명 고용하거나 그들에게 자문료를 지불하려 들기도 한다. 이러한 경향은 특히 최근 각광받고 있는 분야인 AI에서 두드러지는데, 대표적으로 마이크로소프트나 IBM 같은 대기업은 저마다 AI 윤리를 다루는 직책을 두고 있다. 그리고 이들 기업의 AI 윤리는 각 회사 내부의 문제 해결을 넘어 우리 사회 전반에 영향을 미치고 있다.

본지에 실린 정민석(Minseok Jung) 연구원의 글은 AI 윤리를 개괄한다. 철학과 정보과학을 공부하는 학도로서 그는 비윤리적 AI에 관한 몇 가지 사례들과 함께 AI 윤리 원칙을 소개한다. 주목할 점은 그가 설명한 내용 중 상당수가 기업의 주도로 이루어졌다는 사실이다. 예컨대 AI 원칙 발표도, 인종 편향적인 결과를 낳았던 ‘미인대회’ 심사 AI 개발도 모두 마이크로소프트가 주도한 것이었다. 그렇다고 그가 일부러 기업의 사례만 골라냈다는 말은 아니다. 오히려 오늘날의 AI 윤리라는 것 자체가 기업의 영향을 빼놓고는 설명하기 힘들어졌다는 뜻이다.

이 글은 AI 윤리에 대한 이 같은 기업의 영향에 관심을 환기하기 위하여 작성되었다. 물론 AI는 유망한 분야이니 여러 기업에서 달려들 테고, 기업 이미지를 위해서는 윤리 문제에 신경을 쓰는 편이 좋을 테니 기업이 AI 윤리를 다루는 것은 어찌 보면 당연한 일일 것이다. 게다가 윤리 문제를 내팽개치는 것보다야 윤리를 위해 노력하는 시늉이라도 하는 것이 훨씬 바람직하다고 볼 수도 있다. 그런데 이것이 ‘윤리’의 입장에서도 그럴까? 다시 말해, 지금의 AI 윤리는 기업과의 관계를 충분히 파악하고 있으며, 필요하다면 ‘고용주’ 내지는 ‘후원자’가 된 기업을 정교하고 효용성 있게 비판할 수 있는가? 정민석 연구원이 설명하였듯, 오늘날의 AI 윤리는 고대 그리스부터 내려온 오랜 철학적 전통에 바탕을 두고 있다. 수천 년의 역사가 있다는 사실은 그만큼 윤리라는 개념이 수많은 변화를 거듭해왔음을 암시하기도 한다. 그리고 최근의 변화에 있어 기업은 놀라울 정도로 지대한 역할을 해왔다.

두번째 아실로마: 윤리를 선점하기

1975년, 서구의 생물학자들을 주축으로 유전자 재조합 기술에 대한 아실로마 회의(Asilomar Conference)라는 것이 개최되었다.[3] 1970년대에 본격적으로 발전하기 시작한 유전자 재조합 기술은 생명체를 재정의할 수도 있는 큰 가능성과 위험을 내포하고 있었다. 이때 유전자 재조합 기술의 주역이었던 일군의 생물학자들은 2차 세계 대전에서 사용되었던 원자폭탄의 무서운 위력과, 그로 인해 물리학에 가해졌던 거센 비판을 직접 보고 자란 세대였다. 이들 생물학자들은 1970년대 초엽에 유전자 재조합 기술의 잠재력이 엿보이자 재빠르게 캘리포니아 아실로마에 모여 회의를 소집하였다. 그리고는 담대히 선언하였다. 유전자 재조합 기술이 앞으로 얼마나 막대한 파문을 불러올지는 잘 모르겠지만, 우리 생물학자들이 먼저 책임 있게 그 위험을 통제하겠노라고 말이다. 이 날의 회의는 훗날 정부 규제에 앞서 현역 과학자가 과학기술의 윤리 이슈를 선점한 사례로 널리 알려지게 된다.[4]

오늘날의 AI 윤리는 이때의 아실로마 회의를 꼭 빼닮은 모습이다.[5] 파괴적인 위험을 불러올 수 있는 새로운 기술이 개발되고 있고, 과학기술자들이 적극적으로 나서 윤리 이슈를 선점하고자 한다. 다만 다른 점이 있다면 AI 윤리에서는 과학기술자 개개인의 이름보다도 ‘마이크로소프트’, ‘구글’, ‘페이스북’ 같은 기업의 이름이 부각되는 경우가 많다는 것이다. 최근 우후죽순 발표된 AI 윤리 가이드라인에서도 기업의 이름을 내세운 사례를 여럿 찾아볼 수 있다.

먼저 정민석 연구원이 소개한 마이크로소프트 AI 원칙을 살펴보면 ‘공정성’, ‘신뢰성과 안전’, ‘개인정보 보호와 보안’, ‘포용성’, ‘투명성’, ‘책임성’ 등의 6가지 조항으로 구성되어 있다. 사실 이전까지 마이크로소프트의 제품은 AI가 얼마나 비윤리적일 수 있는지 보여주는 대표 소재로 사용되고 있었다. 2016년 3월경 마이크로소프트의 AI 챗봇 테이(Tay)가 인종차별·성차별 발언으로 구설에 올랐고, 이에 마이크로소프트가 가장 먼저 윤리 원칙 발표에 박차를 가하게 된 것이었다. 마이크로소프트는 이 원칙을 발표하며 ‘책임 있는’(Responsible)이라는 수식어를 거듭 강조했다. 과거 원자폭탄과 물리학에 가해졌던 강한 비판과 규제를 되풀이하고 싶지 않아 했던 생물학자들처럼, 마이크로소프트는 당사가 먼저 나서서 윤리 문제에 적극적으로 대처하고 책임지겠노라 선전한 셈이었다.

국내로 시선을 돌리면, 카카오가 2018년 1월에 국내에서는 최초로 알고리즘 윤리헌장을 만들었다. 최초로 발표된 버전에는 ‘카카오 알고리즘의 기본원칙(인류의 편익과 행복 추구)’, ‘차별에 대한 경계’, ‘(사회 윤리에 근거한) 학습 데이터 운영’, ‘알고리즘 독립성’, ‘알고리즘에 대한 설명’ 등 5가지 조항이 있었다. 이후 2019년 8월에 ‘기술의 포용성’이, 2020년 7월에 ‘아동과 청소년에 대한 보호’가 추가되어 현재는 총 7가지 조항이 담겨 있다. 마이크로소프트의 원칙과 비슷한 구성을 지닌 카카오의 헌장에서는 마이크로소프트가 던졌던 것과 비슷한 메시지를 읽을 수 있다. 예컨대 마지막으로 추가된 ‘아동과 청소년에 대한 보호’ 조항은 한국 사회에 큰 파문을 불러왔던 n번방 사건을 계기로 만들어진 것인데, 해당 조항의 신설을 보도하는 언론기사에는 유독 카카오가 중요한 윤리 문제에 발 빠르게 ‘선제 대응’했다는 문구가 눈에 띈다.[6]

틀 지어지는 윤리

마이크로소프트와 카카오 외에도 많은 기업에서 비슷한 내용의 AI 윤리 가이드라인을 발표하고 있다. 응용윤리학자 틸로 하겐도르프(Thilo Hagendorf)는 각종 기관에서 발행한 22개의 AI 윤리 가이드라인을 조사하여 어떤 윤리 문제가 특히 강조되거나 생략되고 있는지를 분석했다.[7] 먼저 가장 강조된 문제는 ‘프라이버시 보호’, ‘공정성/차별 없음/정의’, ‘책임성’, ‘투명성/개방성’, ‘안전성/사이버 보안’ ‘공공의 선/지속가능성/안녕’ 등이었다. 이 문제들은 기술적으로 접근하기에 상대적으로 용이하다는 특징을 가진 것들이다. 다시 말해, 완벽한 풀이까지는 아니더라도 어느 정도는 기술적으로 개선할 수 있고, 또한 개선했다고 대중과 정부에 자랑스레 선보일 수 있는 문제들이다. 인종차별이나 성차별 등을 방지하기 위해 학습 데이터를 수집하는 과정이나 라벨링하는 방식을 변경하고, 투명한 AI를 만들기 위해 설명 가능한 AI 개발에 집중적으로 투자하는 식으로 말이다. 

반면 기술적으로 개선하기 힘들거나 개선했음을 판별하기 어려운 문제들은 생략되는 경향이 있었다. 예를 들어 일명 ‘트롤리 문제’[8]라 일컫어지는 전통적인 윤리 문제들, 즉, 저울질을 해야 하는 난감한 상황에서의 대처 방안은 좀처럼 다루어지지 않았다. 또한 딥러닝 붐 초기에 철학자 닉 보스트롬(Nick Bostrom)의 논의[9]를 중심으로 한 때 화제가 되었던 인간의 능력을 상회하는 초지능과 그것이 초래할 인간의 실존적 위협은 가이드라인의 전반적인 주제에서 벗어나 있었다.

그 중에서도 특히 소비자에게는 잘 드러나지 않으면서도 기업의 입장에서는 다루기 까다로운 사회적, 생태학적 문제에 대한 언급은 거의 없다시피 했다. 최신 AI의 핵심을 이루는 딥러닝은 막대한 컴퓨팅 파워와 그에 따른 엄청난 전력을 필요로 한다. 자연어 처리 분야에서 AI 모델 하나를 훈련시키는 데에 배출되는 이산화탄소의 양을 계산했더니 자동차 한 대가 폐차될 때까지 내뿜는 양의 5배에 달했다는 조사 결과도 있다.[10] 또 한 편으로는 AI 모델을 개발하기 위해서는 AI가 학습할 수 있는 형태로 데이터를 가공해주는 과정이 필요한데, 이는 주로 저임금 노동자가 열악한 환경에서 수행하고 있는 작업이다. 그러나 윤리적 AI를 만드는 길잡이를 자처하고 있는 여러 가이드라인들은 이러한 내용을 거의 다루지 않았다. ‘공공의 선’이라든가 ‘지속가능성’을 이야기하며 환경 문제나 노동 문제를 다룰 수도 있었겠지만 그런 방향으로는 윤리를 이야기하지 않았다. 책임 있는 윤리 원칙을 내세우면서도 실상은 특정 형태의 책임만 회자되도록 윤리를 틀 짓고 있는 것이다.

<그림 1> 기업의 윤리 빚기? [11]

기업을 잊지 마

우리의 윤리 개념은 오늘날의 상황을 얼마나 잘 포착하고 있는가? 기업의 상업적 측면에 대한 고려 없이도 윤리를 잘 설명하고 실행할 수 있는가? 과학철학자 마뉴엘라 페르난데스 핀토(Manuela Fernandez Pinto)의 논문은 얼핏 윤리적으로 보이는 과학기술 프로젝트가 상업적 측면을 고려하지 않고 실행되었을 때 얼마나 왜곡될 수 있는지를 보여준다.[12] 예를 들어 1990년대부터 미국에서는 의약 분야에서 소외되고 불이익을 받던 특정 인종이나 성별을 위해 소수자 맞춤형 의약품을 설계하자는 윤리적 움직임이 일었다. 하지만 실제 프로젝트의 결과물은 윤리의 측면과 지식의 측면 모두에서 실망스러웠다. 인종과 의약품의 효능 사이의 상관관계가 불분명한데도 특정 인종을 위한 맞춤형 의약품이라며 규제 당국의 승인을 받아 인종적 스테레오타입만을 강화하거나, 어떤 통증을 한 성별만의 질병인 것처럼 불필요하게 강조하여 소비자를 과도하게 끌어 모으는 식이었다. 이 프로젝트들은 분명 윤리적인 의도에서 출발했다. 프로젝트의 실행 과정에서 윤리 규정을 명백히 위반하지도 않았다. 그럼에도 시장에서 살아남고 가능한 큰 수익을 얻어야 한다는 상업적 목적은 이 프로젝트들을 의심스러운 모양으로 빚어 냈다.

또한 만약 상업적 측면을 고려하여 윤리 원칙을 세부적으로 잘 정립한다 할지라도 실제 실행자들이 이를 어떻게 받아들이는가 하는 문제도 남아있다. 즉 AI 윤리의 경우, 실제 기업 현장에서 AI 개발자들 및 관계자들이 과연 윤리 원칙을 어떻게 받아들이고 반영하고 있는가 하는 문제이다. 과학기술학자 송화선, 박범순은 임상시험과 윤리에 관한 연구에서 윤리 문제가 단순 ‘처분가능한 서류’(workable document)로 전락했음을 설명한 바 있다.[13] 임상시험에 참여하는 피험자를 보호하기 위해 필요한 서류적 확인 과정들이, 기업화된 실제 현장에서는 그저 빠르게 처리해 내야 하는, 별 것 아닌 귀찮은 절차로 여겨지게 된 것이다.

과학기술과 윤리를 이야기하는 저명한 학자 중에는 기업의 영향을 부정하거나 아예 영향이 없어지는 편이 바람직하다고 보는 이들도 있다.[14] 상업적 이득에 대한 열망은 부정부패와 편향을 조장하기도 하고, 효율을 최우선시하는 행태는 윤리를 거추장스럽게 만들기도 할 테니 그들의 의견은 일견 타당해 보이기도 한다. 하지만 오늘날 과학기술의 윤리에서 기업을 거두어 내는 것이 가능할까? 특히 AI의 경우, 기업의 영향을 모조리 거두어 낸다면 AI라는 영역 자체가 증발하게 될 수도 있지 않을까? 윤리적 문제에 대해 어떤 기업이나 인물을 부패의 원인으로 선언하는 것은 단기간에는 효과적일 수도, 또 경우에 따라 반드시 필요할 수도 있다. 하지만 그러한 방식만으로는 설명하거나 해결할 수 없는 일들이 너무나 많아 보인다. 상업적 측면은 현대의 과학기술 그 자체를, 특히 현대의 AI 그 자체를 구성하는 핵심 축이 되었다.

그렇다면 내가 여기서 던지고 싶은 질문은 과연 어떤 윤리 개념이 이러한 기업적 환경을 충분히 포착할 수 있느냐 하는 것이다. 예컨대 과학철학자 케빈 C. 엘리엇(Kevin C.  Elliott)은 전통적으로 이해되던 ‘객관성’의 기준을 기업 환경에서도 실현 가능한 기준으로 발전시키고자 했다.[15] AI 윤리 분야에서는 어떠한 시도가 있었으며 또 어떠한 노력이 가능할까? 본지의 글에서 정민석 연구원은 AI 윤리의 철학적 배경과, AI와 분석철학의 연관성을 보여주었다. 윤리적, 철학적 개념을 다루는 데에 있어 그 개념의 근원을 이해하고 있는 철학자의 정교한 분석은 여러 번 강조해도 지나치지 않을 정도로 중요할 것이다. 그리고 나는 그 분석이, 시대의 흐름과 환경적 조건을 포착하는 풍성한 분석으로 발전해 나가기를 기대한다.


[1] Jung, M. (2021), “AI Principles and Philosophical Foundations of AI”, Behind Sciences, Vol. 11.

[2] 카우시크 순데르 라잔, 안수진 번역 (2012), 『생명자본: 게놈 이후 생명의 구성』, 그린비, 66-69쪽에 소개된 일화. [Sunder Rajan, K. (2006), Biocapital: The constitution of postgenomic life, Duke University Press.]

[3] Berg, P., Baltimore, D., Brenner, S., Roblin, R. O., & Singer, M. F. (1975), “Asilomar conference on recombinant DNA molecules”, Science, Vol. 188, No. 4192, pp. 991-994.

[4] 아실로마 회의에 관한 또 다른 분석은 다음을 참조하라. Hurlbut, J. B. (2015), “Remembering the Future: Science, Law, and the Legacy of Asilomar,” in Jasanoff, S. & Kim, S.-H. ed., Dreamscapes of Modernity: Sociotechnical Imaginaries and the Fabrication of Power, pp. 127-151, Chicago: University of Chicago Press.

[5] 아예 ‘아실로마’라는 이름으로 AI 윤리 원칙이 발표되기도 했다. 2017년 캘리포니아 아실로마에서 개최된 ‘이로운 인공지능 회의’(Beneficial AI Conference)에서 ‘아실로마 AI 원칙’(Asilomar AI Principles)이 만들어졌다.

[6] 예를 들어, 연합뉴스(2020. 6. 26), 「카카오, 성착취·아동 성범죄 금지 명문화…’n번방법’ 선제 대응」, https://www.yna.co.kr/view/AKR20200625172600017

[7] Hagendorff, T. (2020), “The ethics of AI ethics: An evaluation of guidelines”, Minds and Machines, Vol. 30, No. 1, pp. 99-120.

[8] 달리는 열차가 고장이 나 누군가를 치어야만 하는 상황에서 누구를 치어야 하는가를 묻는 유명한 윤리학 문제. 철학자 필리파 풋(Philippa Foot)이 처음 고안하였다. 이후 여러 학자에 의해 무수히 분석되었으며 다양한 버전으로 변형되었다.

[9] Bostrom, N. (2014), Superintelligence: Paths, dangers, strategies, New York: Oxford University Press.

[10] Hao, K. (2019), “Training a single AI model can emit as much carbon as five cars in their lifetimes”, MIT Technology Review, https://www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes/

[11] 한혜정 그림 (2021. 07. 13), 픽사베이 사진을 트레이싱하고 변형함. 픽사베이 원본 사진은 다음 링크 참조. https://pixabay.com/ko/photos/%eb%8f%84%ec%9e%90%ea%b8%b0-%ec%88%98%ea%b3%b5-%ec%86%90-%ec%bb%b5-%ea%bd%83%eb%b3%91-1139047/

[12] Fernández Pinto, M. (2018), “Democratizing strategies for industry-funded medical research: a cautionary tale”, Philosophy of Science, Vol. 85(5), pp. 882-894.

[13] 송화선, 박범순 (2018), 「초대받은 임상시험」, 『과학기술학연구』 제18권 3호, 1-44쪽. 

[14] 예를 들어, 필립 키처(Philip Kitcher). 그가 전개한 ‘질서 정연한 과학에 대한 이상’(Ideal of Well-Ordered Science)에 따르면 과학기술은 공공재로 취급될 때 이상적이며, 따라서 기업의 영향은 배제되어야 한다. 보다 자세한 내용은 다음을 참조하라. Kitcher, P. (2011), Science in a democratic society, Prometheus Books.

[15] Elliott, K. C. (2018), “Addressing industry-funded research with criteria for objectivity”, Philosophy of Science, Vol. 85, No. 5, pp. 857-868.

답글 남기기

아래 항목을 채우거나 오른쪽 아이콘 중 하나를 클릭하여 로그 인 하세요:

WordPress.com 로고

WordPress.com의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Google photo

Google의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Twitter 사진

Twitter의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

Facebook 사진

Facebook의 계정을 사용하여 댓글을 남깁니다. 로그아웃 /  변경 )

%s에 연결하는 중

WordPress.com 제공.

위로 ↑

%d 블로거가 이것을 좋아합니다: