들어가기전
얼마전 개발자들과 함께하는 독서모임을 가지게 되었다.
해당 모임에서 선정한 이번달의 책은 " 도덕적인 AI " 우리가 마주하고 있는 AI 시대를 바탕으로 기술적, 도덕적 측면에서
AI 의 위험성에 어떻게 대처해야 하는지를 담은 책이다.
데이터과학자 , 철학자, 컴퓨터 과학자인 세명의 저자가 모여 집필한 책이며
무의식적으로 제공했던 개인정보에 대한 위험성 측면에서도 많은 생각을 할 수 있게 해준 책이었다.
(물론 ,, 매우 이과가 쓴 책 같았지만 ,,, 정보제공 이라는 부분 에서는 다량을 정보를 품고 있으니,, 별 3 개 정도를 줄 수 있을 것 같다)
요약
기억을 위해 남기는 독후감임으로 꽤나 꼼꼼히 써보려 한다.
서론 "무엇이 문제인가" 에서 필자는 AI 가 초래하는 문제점과 장점을 사례와 연결지어 설명하여, AI 문제에 대해 주목해야 해야하는 이유 를 강조하며 책을 시작한다.
차례대로 목차를 따라가보자.
1장 - 인공지능은 무었인가 ?
일반적으로 ai 에 대한 정의는 매우 추장적이고 들쭉날쭉하다. 전반적으로 인간 수준의 지능을 갖춘 기계를 ai 라 칭하곤 하지만, "인간 수준의 지능" 이라는 개념 또한 모호하기에 필자는 미국의 국가 인공지능 구상법에서 제공하는 정의를 가져와 인공지능을 정의하기로 정했다.
- 인간이 규정한 일련의 목표에 대해 충분히 신뢰할 만하게 예측, 추천, 및 결정을 수행하여 실제, 가상환경에 영향을 미치는 시스템-
이제 인공지능을 폭넒게 정의 해 보았다. 폭넓은 정의가 존재하지만, 인공지능은 다양한 관점에서 볼 수 있다. 지금부터는 다양한 관점에서 이름붙여진 인공지능들에 대해 알아보자.
좁은 AI : 특정한 임무를 수행하도록 설계
범용 AI : 본래 설계 목적이 아닌 임무를 포함하여 다양한 임무 수행 가능한 ai ex) LLM 기반 chat gpt, 클로드 등
일반 인공지능 : 인간수준의 AI
약한 AI : 보는 관점에 따라 다르다. 좁은 AI 와 동일한 것으로 받아들이는 사람들이 있는 한편 인간의 특정 측면을 모방하기 위한 연산 도구 로 바라보는 사람도 있다. ( 약하다는 말이 임무수행에서의 능력을 명시하는 것은 아니다. )
강한 AI : 마찬가지로 일반 인공지능과 동일한 것으로 받아들이는 사람들도 있다.
고파이 : 좋은 구형 인공지능 이라는 뜻이다. 기호주의 AI 라 부르기도 하며 프로그래머가 미리 정해둔 규칙, 추론절차에 따라 움직인다. (ex 체스두기 같은 상황에서 잘 움직인다. ) but 세부적인 규칙을 필요로 함으로 특정 분야에 특화되는 경우가 많다.
이렇게 여러 인공지능의 종류에 대해 알아보았다.
그렇다면 인공지능은 어떻게 세상을 바라보고 정보를 학습 해 나갈까 ?
인간은 경험을 통해 학습한다. 기계도 똑같이 할 수 있을까 ? 기계는 기계학습을 통해 세상을 경험할 수 있다.
기계학습은 ai 에 목표를 부여한 후 목표 달성방식을 경험을 통해 스스로 알아내도록 하는 방법이다.
기계학습의 알고리즘은 수많은 데이터를 사용하여 새로운 데이터를 예측할 수 있는 모형,
표현집합을 구축하며 이를 우리는 모델이라 부른다.
여기서 기계학습은 여러 접근방식을 가진다
지도학습 : 훈련 데이터에 미리 라벨을 달고 정답 데이터를 학습시킨 후 실제 데이터를 유추하는 방식이다.
비지도 학습 : 여러 데이터들을 제공한 후 해당 데이터의 공통점을 찾아 분류하는 방식이다.
강화학습 : 일정시간동안 성패를 통해 학습시키며 특정 보상을 극대화 하는 방식이다.
심층학습 : 인간의 신경세포를 본따 인공신경망을 만들어 학습시키는 방식에서 많은 은닉층으로 이루어진 인공 신경말을 심층신경망이라 한다. 심층신경망을 사용해 학습하는 방식이 심층학습니다.
=> 이렇게 다양한 ai 의 학습방식과 다양한 종류의 ai 가 있지만 모든 접근방식에는 장단점이 있다. 즉 현실에서는 여러 ai 접근방식을 결합시키는 방식을 선호한다.
자 지금까지 " 인공지능 " 에 대해 알아보았다. 마지막으로 오늘날 ai 의 문제점을 살펴보자.
1. 상식의 부족
2. 한가지만 잘한다. - 대체로 특정 임무에 특화되어 설계된다.
3. 틀을 벗어나서 사고하지 못한다. - 창의성의 부족
4. 계층적 계획에 어려움을 겪는다.
5. 감정적 사회적 통찰이 부족하다.
6. 일반적으로 몇 가지 사례만으로는 학습이 불가하다. - 방대한 데이터 필요
7. 물리적 세상과의 상호작용이 서툴다.
8. 상황 변화에 취약하다. - 반복적인 환경에서만 잘 작동 !
9. 해석하는데 어려움을 겪는다. - 인공신경망은 매우 복잡, 어떤 메커니즘으로 ai 가 해당 결론을 도출했는지 알기 어려움
=> ai 는 언어의 형식은 알지만 의미는 모른다 .. ! 흔한 사례로 gpt 가 가끔 엉뚱한 대답을 하는 경우를 볼 수 있다.
첫장에선 ai의 개념, 종류, 문제점에 대해 알아보았다. 다음장에서는 해당 문제점을 기반으로
인공지능의 안전성에 대해 논의해보자.
2장 - 인공지능은 안전할 수 있을까 ?
공상 과학 영화처럼 인공지능이 인류를 지배하는 날이 올까 ? 1장에서 설명한대로 인공지는은 아직 여러 한계를 가지고있다 , 즉
우리가 상상하는 세상이 오기까지는 너무도 많은 발전이 필요하다 !!
그럼에도 불구하고 지난 몇년간 보여준 ai 의 비약적인 발전을 생각하면 이러한 상상은 단순 공상이라 치부할 수 없다.
때문에 이러한 논의는 필요하다고 필자는 주장한다. but 해당 책에서 다루기에 해당 내용은 너무 방대함으로 현재 우리가 당면한
ai 의 문제에 대해 알아보자. (단지 경각심을 가지자는 의미이다...)
우리는 알지 못하는 사이에 여러 ai 문제에 둘러쌓여 있다. 대표적인 사례를 몇개 살펴보자.
1. 지능이 있다고 해서 실수하지 않는다는 뜻은 아니다. - but 인간은 ai 를 맹신하여 잘못된 예측을 마치 올바른 예측처럼 합리화 하는 경향이 있다.
2. 심지 어 실수를 저지를 때조차 ai 를 너무많이 신최한다 - 앞에서와 같은 맥락이다.
3. ai 의 실수 가능성은 인간 의사결정자의 주의를 분산시킨다. - 잘못된 알람은 사용자를 혼란에 빠뜨린다.
4. ai 사용자와 감독자도 실수를 저지를 수 있다. - ai 사용법을 재대로 훈련받지 않은 사용자는 사용에서 문제를 일으킬 수 있다.
5. ai 가 성공함에 따라 인간 전문가의 숙련도가 저하될 수 있다. - ai 사용에 익숙해진 전문가의 전문지식은 퇴화한다.
6. 감지되지 않은 ai 편향은 특정집단의 삶의 질에 큰 영향을 미친다. - ai 는 데이터를 기반으로 학습한다 데이터에 편향정보가 있다면 흑인 등 사회적 약자에 대해 편향적인 판단을 내릴 수 있다.
7. ai 는 나쁜 의도를 실현 가능하게 한다.
8. ai 는 대규모로 피해를 입히는 새로운 방식을 가능케 한다.
9. ai 가 다른 ai 에 너무 신속하게 반응해서 통제할 수 가 없다.
10. ai 는 심리적 거리감을 조장한다. - 비인간화
3장 - 인공지능은 프라이버시를 존중할 수 있을까 ?
ai 는 위에서 살펴본 여러 문제 뿐 아니라 프라이버시 문제도 야기한다.
필자는 해당 문제에 대해 깊이있게 얘기하기 전, 프라이버시의 개념부터 설명하는데 이부분은 생략하겠다.
ai 는 어떻게 프라이버시를 침해할까 ?
ai 는 개인정보를 알아낼 수 있다.
단적인 예시로 얼굴 인식 ai 를 만들어 해당 얼굴을 가진 사람의 사적인 정보를 데이터를 바탕으로 추적하는 ai 가 있다면 문제가 될 것이다.
또는 ai 의 망각불능 이라는 특징을 사용하여 학습한 사용자의 개인정보를 유도해 낼 수도 있다.
ai 생태계는 개인 데이터의 비축과 판매를 조장한다.
우리의 경각심이 필요한 부분이다. ai 학습에는 방대한 량의 데이터가 필요하다.
회원가입시 무심코 동의하는 긴 법적 동의항목에는 개인정보를 헐값에 넘기겠다는 내용이 포함되어 있지만
유심히 볼만한 분량은 아니다. 때문에 늘 자동체크로 넘기곤 하는데, 우리가 주로 사용하는 사이트들은 이러한 취약점을 사용해
이용자의 정보를 가져간다.
해당 장에서 얼마나 많은 회사가 개인의 데이터를 손쉽게 수집하는지 에 대한 자세한 설명이 꽤나 충격적으로 와닿았다.
4장 - 인공지능은 공정할 수 있을까 ?
이장에서 가장 인상깊었던 부분은 " 편향이 입력되면 편향이 출력된다. " 라는 부분이다.
ai 는 우리의 인종, 성별 등 을 생각하는 편향된 데이터를 학습하여, 편향된 결론을 도출한다. 결국 공정성을 위해서는 우리의
편향된 시각에 대한 데이터 제거가 필요하다.
책은 인간판사 vs ai 중 누가 더 정확한가 에 대한 의문을 던진다.
위에서 언급했듯, 인간은 개인적인 편향을 가지고 있다.
결론적으로 현 상황에서는 ai 학습시 , 편파적인 데이터를 모아 제거하는 방식으로 학습시킨다면 ai 의 편향성을 없애고
보다 공정한 판단을 내릴 수 있지 않을까 라는게 필자의 생각이다.
물론 해당 편향성 제거를 위해 여러 복잡한 절차와 문제점이 아직 존재하지만 ( 해석 가능성 등의 문제가 있다. ai 가 어떤 절차를 통해 해당 판결을 냈는지 알아야 객관적인 시각에서 공정성 판단이 가능 할 것이다. )
해당 사례에서는 ai 의 판단이 꽤나 유용하게 쓰일 것이라 판단된다.
5장 - 인공지능에 책임을 물을 수 있을까 ?
책임 에 대해 논하기 전, 하나의 사례를 살펴보자.
자율주행자동차 를 생각하면 평범하게 떠올릴 수 있는 인공지능의 문제다.
한 밤중 운전중인 우버의 자율주행 택시가 사람을 사물로 인식해 직진하는 사고가 있었다.
해당 사고에 대한 책임을 누구에게 물을 수 있을까 ?
우버회사 ? 해당 차를 운전했던 운전기사 ? 자율주행 ai 모델?
여기서 우리는 ai 관련 사고의 책임을 누구에게 물어야 할지 생각해볼 필요가 있다.
ai 가 사회에 미치는 영향을 생각했을때 안정적인 피해 최소화 제도가 있어야 한다.
누군가는 책임을 져야 한다는 말이다.
책임의 정의에 대해 생각해보아도 이중 누군가에게 책임을 묻기란 참으로 애매하다.
결론만 말하자면 우리는 ai 에게 도덕적 비난을 가하는 방식으로 자율주행차의 위험성을 드러낼 수 있다.
물론 ai 가 스스로 도더적 비난에 책임을 느낄 순 없겠지만, 예방적 측면에서 효과가 있다는 말이다.
이렇게 하나의 예시로만 봐도 인공지능과 관련된 사고에 책임을 묻기란 상당히 애매하다.
우리는 이러한 "책임공백" 의 부재를 경계하고 관련 사고에 적절한 책임을 물어야 한다.
6장 - 인공지능에 인간의 도덕성을 탑재할 수 있을까 ?
앞에서 언급한 여러 문제는 ai 가 정말 "인간처럼 생각할 수 있다면" 일어나지 않을 문제들이다.
도덕성을 탑재한 ai 설계가 가능할까 ?
두가지 측면에서 생각해보자.
하향식 도덕성 : 시스템에 높은 수준의 도덕원칙을 프로그래밍 한 다음 해당 원칙을 구체적 상황에 적용하는 지침을 제공하는것
but 구체적 상황에 대한 모든 지침을 다 제공해 줄 수는 없다. (경우의 수가 너무 많음)
상향식 도덕성 : 일반적 도덕규칙 제공 x 선악에 대한 구체적 사례를 바탕으로 도덕성 학습 but 너무 많은 데이터 필요, 학습 데이터에 따라 도덕에 대한 기준이 달라짐 , 왜 특정행위가 잘못된 행위인지에 대한 답을 할 수 없다.
둘중 어느 방식을 사용하던, 인간은 세상을 볼때 편향된 (자기만의 기준으로) 기준으로 세상을 본다.
때문에 학습 과정에서 ai 는 기본적으로 편향된 데이터를 학습하게 된다. ( 앞서 공정성의 문제에서 언급했다. )
ai 에게 인간의 도덕성을 학습시킬때 기본적으로 편향된 데이터를 모아 학습데이터에서 제외시키는 방식의
전처리가 필요하다.
물론 인간의 시각에서의 전처리이기 때문에 편향을 완전히 배제시킬 수는 없지만
해당 방식을 도입함으로서 좀더 공정한, 도덕적인 ai 의 발전을 가능케 할 것이다.
=> 다수의 도덕성을 학습한 ai 가 만들어내는 결론은 인공적으로 개선된 민주주의라 부를 수 있다.
모두의 의견을 통합한 모델이라는 점에서 민주주의적이며, 의도적으로 학습시킨 결론이라는 점에서 인공적 이라 칭할 수 있다.
7장 - 우리는 무엇을할 수 있을까 ?
토론할때도 이 장에 대해 회의적이었는데, 상당히 이상적인 말을 줄줄 써놓은 느낌이었다 ..
교육을 통한 윤리문제 해결 등과 같은 자본주의 사회에서는 불가능한 ...
그럼으로 마지막장은 과감하게 스킵하겠다.
느낀점
평소에 인공지능 윤리에 대해 크게 생각 해 본 적은 없었는데 일상속에 내제한 인공지능이 가져오는 문제들에 대해 생각 해 볼 수 있었던 좋은 계기가 되었던 것 같다. 독서 모임 인원 모두가 언급했듯, 저자의 글쓰는 실력은 매우 형편 없지만 ,,, 여러 인상적인 사례들이 흥미로웠던 점을 생각하자면 5점만점의 3점 정도 인 책이었다.
모임중 딥시크에 관한 윤리적 우려를 표출하는 분도 있었는데,( 딥시크는 현재 오픈소스로 풀려있다고 한다. ) 우리 모임 사람들은 오픈소스가 ai 의 발전을 위해 필요하다 vs 너무 위험한 도구다 라는 두가지 의견으로 나뉘었으며 결론적으로는 오픈소스는 발전을 위해 필수적이다 쪽으로 기울었다. 나와 모임장님은 윤리적, 법적 틀이 마련되지 않은 상태에서 너무 빠른 기술적 발전은 독이다 라는 입장이었다.
현재 ai 관련 법제정을 하시는 분과 모임장님이 꽤 가까운 사이라고 알고있는데, 법을 제정하시는 분들이 해당 기술에 대한 이해가 너무 떨어진다는 점에서 걱정이 많이 되시는 모양이다. 어쨌든,
나름의 흥미를 자극하는 책이었지만 나는 ai 윤리보다는 기술 자체에 관심이 많은 개발자이기에 ( 어쩔수 없는 공대생 인가보다 .. )
기술이나 개념묘사가 부족하다는 점 , 또 필자가 말하고자 하는 바가 모호해 질때가 많다는 점에서 아쉬움이 많이 남았던 책인 것 같다.