카카오의 알고리즘 윤리 헌장을 개리 마르커스 뉴욕대 교수의 관점에서 해석해보는 것도 의미가 있을 겁니다. 개리 마르커스 교수는 지난 1월 발표한 에세이 ‘Deep Learning: A Critical Appraisal'(딥러닝 : 비판적 평가)에서 딥러닝의 한계를 10가지로 정리했습니다. 제목만 열거하면 다음과 같습니다.

  1. 너무나 많은 데이터를 필요로 한다.
  2. 얕은 지식을 배우고 지식 재활용이 힘들다.
  3. 위계적 구조(주로 언어학) 다루는데 자연스럽지 않다
  4. 개방적 문제 해결에 취약하다.
  5. 충분히 투명하지 않다
  6. 이전(기 구축된) 지식과의 통합이 쉽지 않다.
  7. 인과관계와 상관관계의 구분이 어렵다.
  8. 문제가 될 수 있는 방식에서 안정적인 환경을 가정한다.
  9. 근사값 예측을 잘 하지만 응답은 종종 충분히 신뢰할 만하진 않다.
  10. 신뢰성있게 엔지니어링 하기 쉽지않다.

카카오의 알고리즘 윤리 헌장은, 딥러닝으로 상징되는 알고리즘의 한계를 일정 부분 수용한 결과라고 생각됩니다. 딥러닝이라는 블랙박스의 불투명성은 향후 그것의 응용 분야에 따라 분명한 법적 책임을 야기할 것으로 예상됩니다. 마르커스 교수도 이 부분을 명확하게 하고 있죠. 뿐만 아니라 예측치에 대한 일관된 신뢰가 보증되기 어렵다는 문제도 카카오의 윤리헌장이 담고 있다고 생각합니다. 2조 차별에 대한 경계가 이 우려에 해당한다고 보고요.

카카오 알고리즘 윤리 헌장
1. (카카오 알고리즘의 기본 원칙) 카카오는 알고리즘과 관련된 모든 노력을 우리 사회 윤리 안에서 다하며,이를 통해 인류의 편익과 행복을 추구한다.
2. (차별에 대한 경계) 알고리즘 결과에서 의도적인 사회적 차별이 일어나지 않도록 경계한다.
3. (학습 데이터 운영) 알고리즘에 입력되는 학습 데이터를 사회 윤리에 근거하여 수집∙분석∙활용한다.
4. (알고리즘의 독립성) 알고리즘이 누군가에 의해 자의적으로 훼손되거나 영향받는 일이 없도록 엄정하게 관리한다.
5. (알고리즘에 대한 설명) 이용자와의 신뢰 관계를 위해 기업 경쟁력을 훼손하지 않는 범위 내에서 알고리즘에 대해 성실하게 설명한다.

결과적으로 AI 기술을 지탱하는 알고리즘은 다양한 방식으로 견제되고 검증받아야 한다는 사실을 상기시킨 사례가 아닐까 합니다. 알고리즘 책임성과 관련된 사회적 약자 보호와 이들을 위한 설명권의 담론을 끄집어낸 것도 의미라면 의미라고 생각합니다. 특히 설명권은 “알고리즘의 실행으로 영향을 받게 되는 누군가는 어떻게 판단에 도달하게 됐는지 정확하게 이해하기 위한 수단을 제공받을 권리”를 말하는데, 희미하게나마 알고리즘 윤리 헌장이 다루고 있어서 다행이라는 생각도 갖게 됐습니다. 즉, 알고리즘의 위험 가능성을 인정하고 경계하되 인류의 생활을 윤택하게 하는데 알고리즘을 활용하자는 것, 그것이 카카오 알고리즘 윤리헌장의 의의가 아닐까 싶네요.

개리 마르커스 교수는 이 에세이의 결론부에 딥러닝의 아버지와도 같은 제프리 힌턴 교수에 대한 이야기로 끝을 맺는데요. 번역하면 이렇습니다.

“아마도 가장 주목할 만한 것은, 힌튼이 자신의 신념을 재검토 할 정도로 용감했다는 점입니다. Axios와 인터뷰에서 그는 역전파(Back Propagation)에 대해 깊이 회의적이라고 밝혔습니다. 알다시피 역전파는 딥러닝의 핵심 원동력이었습니다. 그가 우려한 이유는 라벨링된 데이터 세트에 대한 의존성 때문이었죠. 대신, 힌튼 교수는 완전히 새로운 방법이 개발돼야 할 것이라고 말했습니다.”