어린이 안전을 위한 Google, Meta, OpenAI의 노력

알림
|
X

페이지 정보

작성자 무인도강쥐 121.♡.55.58
작성일 2024.04.27 19:02
분류 IT
1,421 조회
3 추천
쓰기 분류

본문

AI Tool Report 기사 : Google, Meta, and OpenAI commit to child safety (April 24, 2024)

대형 AI 기업들이 AI 시스템을 개발, 배포 및 유지 관리할 때 아동 안전 조치를 이행할 것을 약속했습니다.


아마존, 구글, 메타, 마이크로소프트, OpenAI 등 AI 및 기술 분야의 유명 기업들은 AI 시스템의 개발, 배포, 유지 관리의 모든 단계에서 아동 안전을 우선시하겠다는 일련의 안전 원칙에 서명했습니다. 그 외에도 Anthropic, Civitai, Metaphysic, Mistral AI, Stability AI 등이 있습니다.


원칙은 누가 만들었으며 왜 만들었나요?

"Safety by Design"이라는 이름의 이 원칙은 온라인 아동 안전 비영리단체인 Thorn과 사회의 비윤리적인 AI 관행에 대처하는 비영리단체인 All Tech is Human이 함께 개발했습니다.

유해하고 학대적인 콘텐츠를 생성하는 데 AI를 사용하는 사례가 증가함에 따라, 기술을 오용하여 AI가 생성한 아동 착취물을 제작하고 확산하는 것을 방지하기 위해 고안되었습니다:

- 이러한 원칙을 준수하는 기업 중 최소 5곳이 자사의 제품과 서비스가 아동이 등장하는 불법 딥페이크의 제작과 확산에 사용되었다는 리포트에 반응을 보였습니다.
- 2023년 미국에서 아동 학대가 의심되는 사례는 1억 4천만 건 이상 접수되었으며, 이 중 5%에서 8%만이 검거나 유죄 판결로 이어졌습니다.
- 국립 실종 및 착취 아동 센터는 2023년에 생성형 AI로 제작된 아동 착취 이미지 또는 동영상 4,700건을 보고했습니다.


"Safety by Design" 원칙이란 무엇인가요?

"Safety by Design" 원칙에 서명함으로써 기업들은 다음을 약속합니다:
- 학습 데이터 세트에 불법 아동 학대 관련 콘텐츠가 포함되어 있지 않은지 확인하고, 불법 아동 학대 관련 콘텐츠가 포함될 위험이 높은 데이터 세트를 피하며, 기존 AI 학습 데이터를 검토하고, 현재와 미래의 모든 데이터 소스에서 이러한 유형의 콘텐츠(이미지 및 링크)를 제거합니다.
- AI 모델이 위험한 아동 학대 이미지를 생성하지 않도록 스트레스 테스트를 실시합니다.
- 아동 안전에 대한 평가가 완료된 AI 모델만 출시합니다.
- 이러한 원칙에 따라 진행 상황에 대한 문서를 정기적으로 공유합니다.

<중략>

- DeepL 번역후 부분 수정

댓글 2 / 1 페이지

타로님의 댓글

작성자 no_profile 타로 (211.♡.150.122)
작성일 04.27 19:09
일종의 로봇3원칙 같은 개념일가요?

무인도강쥐님의 댓글의 댓글

대댓글 작성자 무인도강쥐 (121.♡.55.58)
작성일 04.27 19:57
@타로님에게 답글 글쎄요... 아직은 다 시작 단계라...
쓰기 분류
홈으로 전체메뉴 마이메뉴 새글/새댓글
전체 검색