글로벌 연구 동향

규범적 AI 윤리 가이드라인과 초등 AI윤리교육 적용 방안 모색

  • 2024.09.15
[원문제목]규범적 AI 윤리 가이드라인과 초등 AI윤리교육 적용 방안 모색
[자료출처]한국초등교육 2024, vol.35, no.2, 통권 121호 pp. 79-95 [https://www.kci.go.kr/kciportal/ci/sereArticleSearch/ciSereArtiView.kci?sereArticleSearchBean.artiId=ART003098925]
[키워드]AI 윤리, 초등 교육, 윤리교육, 규범, 가이드라인, 뇌신경과학

박형빈 (2024)

    • 이 연구는 AI 기술 발전에 따른 윤리적 문제를 해결하기 위해 초등학생을 대상으로 한 AI 윤리교육의 필요성을 강조함. AI는 산업과 교육 등 다양한 분야에서 혁명적 변화를 가져왔지만, 사생활 침해, 편향, 책임 소재의 불분명함, 군사적 이용 등의 윤리적 문제가 발생하고 있음. 때문에 윤리적 기준을 준수하고 AI 결과물의 신뢰성을 보장하는 검증 절차가 필요함. 따라서 연구는 AI 윤리 가이드라인의 기준과 원칙, 그 한계를 탐구하고, 뇌신경과학에서 밝혀진 인간 도덕성의 기반과 AI 윤리적 결정 과정에서 고려할 요소를 분석하며, 규범적 AI 윤리 가이드라인의 필요성과 초등 AI 윤리교육에서 이를 활용하는 방안을 제안하고 있음. 이를 통해 AI 발전이 가져올 사회적 변화에 학생들이 적극적이고 도덕적으로 대응할 수 있도록 돕는 것이 목표임

연구 배경

    • AI 기술은 현대 사회 전반에 걸쳐 큰 변화를 불러일으키고 있으며, 교육, 산업, 일상생활에서 널리 사용되고 있음. 그러나 이러한 기술의 발전은 개인 정보 보호, 데이터 편향, 투명성 부족, 책임의 모호성 등 여러 윤리적 문제를 수반하고 있음. AI 시스템의 윤리적 문제가 증가함에 따라, 이를 통제하고 관리할 수 있는 윤리적 가이드라인이 필요하다는 목소리가 커지고 있음. 특히 초등학생들은 미래 사회의 AI 기술 설계자, 사용자, 정책 입안자로 성장할 가능성이 크기 때문에, 이들에게 AI의 윤리적 문제와 책임을 가르치는 것이 중요함. 이러한 교육은 미래에 발생할 수 있는 윤리적 도전과 위험에 대비할 수 있는 능력을 길러줄 수 있음

연구 목적

    • 연구의 목적은 AI가 초래하는 다양한 윤리적 문제에 대응하기 위한 교육 전략을 모색하는 것이며, 특히 '규범적 AI 윤리 가이드라인'을 초등학교 AI 윤리 교육에 활용하는 방안을 제안하는 데 있음. 이를 통해 학생들이 AI 기술의 윤리적 측면을 이해하고, 적절한 윤리적 판단을 내릴 수 있는 능력을 기르는 것이 연구의 주요 목표임
      • 현재 AI 윤리 가이드라인이 포함하고 있는 기준과 원칙 및 그 한계 분석
      • 뇌신경과학이 밝혀낸 인간 도덕성의 기능적 기반을 이해하고, AI의 윤리적 결정 과정에서 고려해야 할 사항 도출
      • 규범적 AI 윤리 가이드라인의 필요성을 강조하고 이를 초등 AI 윤리교육에서 어떻게 활용할 수 있을지 제안

연구방법

    • 이 연구는 국내외 AI 윤리 가이드라인 및 관련 문헌을 종합적으로 검토 분석함. 이를 통해 현재 존재하는 가이드라인들의 원칙과 한계를 파악하고, 뇌신경과학의 연구 결과를 바탕으로 인간 도덕성의 특성을 탐구함. 최종적으로 규범적 AI 윤리 가이드라인의 핵심 원칙을 도출하고 이를 초등 교육 현장에서 실제로 어떻게 적용할 수 있을지에 대해 검토함

연구 결과

  • AI 윤리 가이드라인 분석
    • 현재 가이드라인들은 투명성, 공정성, 책임성 등의 원칙을 포함하고 있으나 실제 적용에 있어 한계가 있음
    • (윤리적 문제) 인공지능의 주요 윤리적 문제로는 직업 위축, 악용 가능성, 책임 회피, 편향성 등이 있으며, 이를 해결하기 위한 윤리적 가이드라인이 필요함. 연구자들은 이를 혁신 비용, 신체 무결성, 데이터 소유권, 프라이버시 등으로 분류하고 있음. 글로벌 단체들은 투명성과 신뢰성을 강조한 AI 윤리 가이드라인을 마련하고 있으며, 기업들도 이를 준수하려고 노력하고 있음. 이러한 가이드라인은 AI의 안전한 사용과 글로벌 협력을 촉진하여 인류에게 혜택을 제공하고 위험을 최소화함
    • (윤리적 요구) AI 기술 발전과 함께 윤리적 요구도 증가하고 있음. 윤리 가이드라인들이 마련되었으나 실제로 인간 의사 결정에 미치는 영향에 대한 논란이 있으며, 기업들은 윤리적 홍보로 규제를 회피하려는 경향이 있음. AI 윤리 연구는 다양한 주제를 다루고 있으며, 여러 기관과 기업이 윤리 지침을 제시하고 있으나 여전히 AI 윤리 프로그램에는 약점이 많으며, 법적 규범이 없으면 윤리 원칙이 실질적으로 적용되기 어려움. 이를 해결하기 위해 구체적인 토대와 메커니즘이 필요함
  • 뇌신경과학
    • (뇌신경과학과 인공지능) AI는 인간 지능을 모방하는 컴퓨터 시스템으로 발전했으며, Turing의 연구는 AI의 지능 여부를 판단하는 기준을 제시함. 이후 Searle의 '중국어 방' 실험은 AI의 의도성과 지능에 대한 논란을 불러일으켰고, 이는 오늘날 생성 AI와도 관련됨. AI는 신경과학의 개념을 차용해 발전해왔으며, 딥 러닝과 강화 학습에서 중요한 역할을 하고 있음. 신경과학은 AI 개발에 영감을 주고 있으며, AI의 윤리적 발전과 인간과 AI 간의 상호작용을 이해하는 데 기여하고 있음
    • (뇌신경과학과 인간의 도덕성) 도덕심리학의 대표적인 연구들은 인간의 도덕성은 뇌에서 비롯되며, 이성과 감정이 상호작용하여 도덕적 판단이 이루어짐을 강조함. 뇌신경과학 연구는 도덕적 판단이 단순한 이성적 추론이 아닌 감정과 직관과도 밀접하게 연관되어 있음을 보여줌. 이를 통해 AI의 윤리적 결정 과정에서도 정서와 직관을 고려해야 하며, AI 윤리 원칙이나 규범 제정 시 이러한 요소를 반영해야 할 필요성을 시사함

규범적 AI 윤리 가이드라인

    • (규범적 AI윤리 가이드라인의 필요성) AI 기술의 확장과 함께 사용자 프라이버시, 감시 가능성, 편견 및 차별 등 여러 윤리적 문제가 대두되었으며, 이에 따라 규범적 AI 윤리 가이드라인에 대한 수요가 증가함. 이러한 가이드라인은 공통된 표준을 제공하고, 다양한 이해관계자들이 일관성 있게 행동할 수 있도록 돕는 역할을 함. 또한, 국제적 협력을 촉진하고 기술 개발자 및 기업이 책임을 질 수 있도록 하는데 중요한 역할을 함. 다만, 현재 존재하는 윤리 가이드라인들은 서로 독립적이고 일관성이 부족하여, AI 기관들이 공정성, 투명성, 지속 가능성과 같은 윤리적 원칙을 작업에 깊이 반영하기 어려운 상황임. 여러 나라에서는 AI 윤리 문제를 다루기 위한 규범적 접근을 시도 중이며, 이를 기반으로 AI윤리 가이드라인을 정립하는 것은 매우 중요함
      • (규범적 AI 윤리 가이드라인과 초등 AI윤리교육) 미래 초등 AI윤리교육에서 규범적 AI윤리 가이드라인을 다루는 것이 중요한 이유는 다음과 같음
      • 첫째, AI 시스템의 윤리적 사용과 개발은 기업이나 조직뿐만 아니라 개인의 선택과 행동에도 영향을 미침으로, 학생들이 윤리적 결정을 내릴 때 AI 기술의 윤리적 측면을 고려하는 능력을 길러야 함
      • 둘째, AI 개발은 공공의 이익과 연결되어 있으며, 개인정보 보호, 공정성, 투명성 등의 개념을 이해하고 적용하는 것이 중요함
      • 셋째, AI 윤리교육을 통해 학생들은 AI 기술의 발전과 사용에 있어 건전한 토대를 마련하고, 해로운 결과를 피할 수 있음
      • 넷째, 학생들이 윤리적 사고와 논의를 통해 AI의 발전에서 윤리적 관점을 고려하는 문화를 조성할 수 있음
      • 다섯째, AI 윤리교육은 도덕적 실천 능력을 심화시켜 시대적 상황에 적응하는 능력을 갖추도록 도움. 특히, 규범윤리 차원의 접근을 통해 결과주의, 의무론, 덕 윤리 등 다양한 윤리 이론을 교육에서 다뤄야 함

초등 AI 윤리교육 적용

  • 저자는 Ryan & Stahl(2020)이 제안한 11가지의 규범적 원칙들을 AI 윤리 가이드라인 규범인 동시에 AI 윤리교육에서 학생들과 논의를 위해 다룰 수 있는 주제로 제시함. 11가지 규범적 원칙은 다음과 같으며, 결과적으로 AI는 사회적 안전과 결속을 촉진해야 하며 사회적 유대와 관계를 위협해서는 안 된다는 점을 강조
    • 투명성: AI 기술과 기관의 투명성을 강조하며, 설명 가능성과 신뢰 구축에 기여함
    • 정의와 공정함: 알고리즘에서 비롯된 차별과 불공정 해소를 위한 노력
    • 해를 끼치지 않음: AI의 안전과 보안을 강조하며, 인간에게 해를 입히지 않도록 함
    • 도덕적 책임: AI 시스템의 책임 소재를 명확히 하고, 책임 있는 행동
    • 프라이버시와 데이터 보호: 개인 정보 보호의 중요성
    • 이익성의 원칙: AI가 개인과 사회 전체에 이익을 가져다주어야 함
    • 자유와 자주성: AI 사용이 개인의 자유와 자기 결정권을 존중해야 함
    • 신뢰: AI의 윤리적 사용에 있어 신뢰의 중요성
    • 지속가능성: AI 개발과 사용에 있어 환경적 지속가능성을 고려해야 함
    • 인간의 존엄성: AI가 개인의 내재적 가치와 권리를 존중해야 함
  • 초등 AI 윤리교육에서 다룰 수 있는 규범적 AI윤리 가이드라인 주제어와 질문
    • 정직성: 로봇이나 인공지능이 항상 진실만 말해야 한다고 생각하나요? 그 이유는 무엇인가요?
    • 정의, 공정: 인공지능이 모든 사람을 똑같이 대우해야 한다고 생각하나요? 공정하다는 것은 무엇을 의미할까요?
    • 인간존중: 로봇이 사람의 감정을 고려해야 한다고 생각하나요? 왜 그렇게 생각하나요?
    • 의무, 책임: 인공지능이 문제를 일으켰을 때, 누가 책임을 져야 할까요? 그 이유는 무엇인가요?
    • 개인정보보호: 친구의 비밀을 알고 있는 로봇이 그 비밀을 다른 사람에게 말해도 괜찮을까요? 왜 그렇게 생각하나요?
    • 공동선: 로봇이 모든 사람에게 도움이 되어야 한다고 생각하나요? 로봇이 사람들을 도울 때 어떤 점을 고려해야 할까요?
    • 자유: 로봇이 사람의 결정을 대신 내려도 괜찮을까요? 사람의 자유란 무엇을 의미하나요?
    • 신의: 사람들이 로봇을 신뢰해야 한다고 생각하나요? 로봇이 신뢰받으려면 어떻게 해야 할까요?
    • 지속가능발전: 로봇이 환경을 보호하는 데 도움을 줘야 한다고 생각하나요? 지속 가능한 발전이란 무엇일까요?
    • 인간존엄성 존중: 로봇이 사람을 존중해야 한다고 생각하나요? 사람의 존엄성을 존중한다는 것은 무엇을 의미할까요?
    • 사회적 연대, 협력: 로봇이 사람들이 서로 돕도록 만들어야 한다고 생각하나요? 사회적 협력이 왜 중요할까요?
  • 저자는 위의 규범적 주제들을 통해 도출할 수 있는 교육 목표, 내용, 주제의 예시를 다음과 같이 들고 있음. 예를 들어, AI의 정직성과 투명성은 윤리적 판단력 강화로 이어지고, 윤리적 리더십과 책임의식도 함양 가능함
    • 목표
      • 인식과 판단력 강화: AI 기술의 윤리적 측면을 이해하고 판단하는 능력 향상
      • 미래의 AI윤리 리더십: 책임자, 개발자, 정책 입안자의 역할과 윤리적 리더십 강화
      • 가치 중심적 AI 개발: 핵심 가치 내재화를 통한 신뢰할 수 있는 AI 설계 및 운영 능력 강화
      • 윤리적 위험 대응 능력: 실제 사례를 통한 윤리적 위험 및 문제 해결 능력 향상
      • 도덕적 사고력 강화: 인간 도덕성과 AI 기술의 도덕적 측면 심화 이해와 사고력 향상
    • 주제와 내용
      • 판단력 강화: AI의 윤리적 측면을 이해하고 판단할 수 있는 능력을 키움
      • 윤리적 리더십과 책임: 미래의 AI윤리 책임자, 개발자, 정책 입안자로서의 역할에 대한 인식과 책임을 인식
      • 신뢰할 수 있는 AI 창출: 인간 중심적이고 가치 중심적인 AI를 발전시키기 위한 핵심 가치를 이해하고 내재화
      • AI의 윤리적 책임과 역할: AI의 윤리적 책임과 역할을 이해하고 이를 내재화
      • AI의 윤리적 위험과 문제점 탐구: 편향, 개인 정보 침해, 투명성 문제, 보안 취약점 등의 실제 사례에 대해 탐구하고 이를 이해하고 실제 생활에 적용
      • 도덕적 판단력 강화: 인간 도덕성과 인공신경망의 이해를 통해 도덕적 사고력을 향상
      • 전문가 역할과 능력 함양: AI 개발자, 설계자, 정책입안자, 사용자, 윤리학자의 역할, 윤리 지침 부재 극복을 위한 능력 등을 이해하고 요구되는 능력을 함양

초등 AI 윤리교육의 목적

    • 저자가 생각하는 초등 AI 윤리교육의 목적은 다음과 같음
      • 첫째, 학생들이 AI 기술의 윤리적 측면을 인식하고 판단할 수 있는 능력을 길러, 일상생활과 미래 직업에서 적절한 윤리적 선택을 할 수 있도록 함
      • 둘째, 미래의 AI 윤리 책임자, 개발자, 정책 입안자로서의 역할과 책임을 인식하게 하고, 윤리적 리더십을 발휘할 수 있도록 교육함
      • 셋째, 인간 중심적이고 가치 기반의 AI를 설계, 개발, 운영할 수 있는 역량을 갖추게 하며, 신뢰할 수 있는 AI 기술을 발전시키기 위한 핵심 가치를 내재화하도록 돕음
      • 넷째, 실제 사례를 통해 개인정보 침해, 편향, 투명성 부족 등 다양한 윤리적 위험과 문제를 탐구하고, 이를 이해하며 대응할 수 있는 실질적인 능력을 기르게 함
    • 이러한 윤리적 질문과 원칙을 바탕으로 AI 윤리 교육을 구성해 학생들이 복잡한 윤리적 문제를 스스로 식별하고 해결할 수 있는 기초를 마련함. 저자는 초등학교에서 AI 윤리 교육을 시작해야 한다는 반론에 대해, 복잡한 개념을 쉽게 전달하고 윤리적 기준을 가진 기술 사용의 중요성을 학생들이 일찍부터 배우는 것이 미래 사회에 필수적이라는 점을 강조함

결론

    • AI 윤리는 신뢰할 수 있는 인공지능을 구현하는 데 필수적인 요소로, 기업과 AI윤리학자에 대한 수요가 크지만, 윤리학자 자체의 편향과 한계도 존재함. 그럼에도 불구하고 AI 윤리의 중요성을 간과할 수 없으며, AI 연구와 개발은 인문학과 윤리를 포함한 다학제적 접근이 필요함. 특히, 초등 AI 윤리교육에서 규범적 AI윤리 가이드라인을 다루어 학생들이 미래 AI 개발 및 사용에 있어 윤리적 책임을 인식하고 대응할 수 있는 능력을 길러야 함. 이는 AI윤리 원칙 내재화, 도덕적 판단 메커니즘 이해, 윤리적 사고 발달 등을 통해 이루어지며, AI의 윤리적 운영과 정책 마련에도 중요한 역할을 할 것임. 결론적으로 초등 AI윤리교육은 단순한 지식 전달을 넘어 윤리적 이슈를 탐구하고, AI의 긍정적 변화와 위험을 관리할 수 있는 능력을 키워 책임감 있는 AI 사용과 발전을 위한 기초를 마련해야 함
참고문헌 Ryan, M. & Stahl, B. C. (2020). Artificial intelligence ethics guidelines for developers and users: clarifying their content and normative implications. Journal of Information, Communication and Ethics in Society, 19(1), 61-86.
  • 공유링크 복사