[헬로티] ▲최근 인공지능 챗봇 ‘이루다’를 둘러싼 논란으로 윤리적 인공지능 개발·활용에 대한 관심이 높아졌다. 과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원이 오는 2일 서울 더케이호텔에서 ‘사람 중심의 인공지능를 위한 인공지능 윤리 정책세미나’를 개최한다. 이번 정책세미나는 최근 인공지능 챗봇 ‘이루다’를 둘러싼 논란으로 윤리적 인공지능 개발·활용에 대한 관심이 높아지는 상황에서, 우리사회 인공지능 윤리 정립을 위한 실천방안을 모색하고 각계의 다양한 의견을 폭넓게 수렴하기 위해 마련됐다. 특히 과기정통부는 인공지능 윤리에 대한 폭넓은 사회적 숙의·토론과 함께 인공지능 윤리 이슈가 성장 단계에 있는 인공지능 기술·산업 발전을 저해하지 않도록 현장의 의견에 기반한 균형적 정책 방향을 모색하는 데 본 세미나의 의의가 있다고 설명했다. 이번에 개최되는 인공지능 윤리 정책세미나는 인공지능 윤리 실천을 위한 주제별 발표세션과 학계·기업·시민단체를 대표하는 전문가들의 토론 세션으로 구성된다. 먼저 발표세션에서는 문정욱 정
[헬로티] 과학, 법학 등 각 분야 전문가 자문에 참여 ▲인공지능 윤리기준 3대 기본원칙은 인간의 존엄성 원칙, 사회의 공공선 원칙, 기술의 합목적성 원칙이다. (출처 : 게티이미지뱅크) 정부가 인공지능 개발 및 활용에 대한 윤리기준을 발표했다. 과학기술정보통신부(이하 과기정통부)와 정보통신정책연구원은 23일 대통령 직속 4차산업혁명위원회 전체회의에서 인공지능 시대에 바람직한 인공지능 개발·활용 방향을 제시하기 위한 ‘인공지능(AI) 윤리기준’을 마련했다. 이번 기준은 그간 인공지능·윤리학·법학 등 학계·기업·시민단체를 아우르는 각 분야의 전문가들이 자문과 의견수렴 과정에 참여했고 지난 7일 공개 공청회 등을 통해 시민 의견수렴을 거쳤다. 과기정통부는 올해 4월부터 인공지능·윤리 전문가로 구성된 인공지능 윤리연구반을 통해 국내외 주요 인공지능 윤리원칙을 분석하고, 그 결과를 윤리철학의 이론적 논의와 연계해 ‘인간성을 위한 인공지능(AI for Humanity)’을 목표로 하는 윤리기준 초안을 마련했으며, 3개월에 걸쳐 학계·기업&
[첨단 헬로티] 인공지능(AI)에 대한 윤리적 대응체계를 만들기 위해 민관학협력 모델을 시급히 구축하고, AI윤리에 대한 총론적 규범논의 수준에서 벗어나 산업별·서비스별 윤리 이슈에 대한 구체적이고 탄력적인 정책적 대응이 필요하다는 지적이 제기됐다. 이 같은 의견은 ‘인공지능의 윤리적 개발 동향과 입법 대응 과제’라는 주제로 개최된 정책세미나 참가자들에 의해 발언됐다. 이번 세미나는 한국인공지능법학회와 KAIST 인공지능연구소, 바른 미래당 신용현 의원(국회 4차산업혁명특별위원회 전 인공지능소위원장) 주최로 7일, 국회의원회관 제2소회의실에서 개최됐다. 이 자리에서 국내외 AI 전문가들은 AI 기술 개발 뿐만 아니라 윤리적 대응 체계를 갖추는 일이 시급하다고 입을 모았다. 특히 이번 세미나는 AI를 디자인하는 공학전문가와 AI의 정책 및 법률 이슈를 다루는 법학 연구자들이 모여 AI의 윤리적 이용을 위한 정책방안을 논의하는 크로스오버 세미나로 진행돼 눈길을 끌었다. 안토니 쿡(Antony Cook) 마이크로소프트 아시아지역 법무정책 총괄매니저는 기조 발표를 통해 “정부는 AI 활용이 미래 경쟁력의 핵심 동력임을 인