일본에서 10대가 자살행위 등을 인스타그램에서 반복 검색할 경우 보호자에게 알림이 가게 된다.
11일 요미우리신문에 따르면 전날 인스타그램을 운영하는 메타 일본 법인이 13∼17세 이용자가 자살이나 자해행위 등을 반복적으로 검색하면 보호자에게 이를 알리는 기능을 연내 일본에 도입할 방침을 밝혔다.
해당 기능을 이용하려면 자녀와 보호자의 계정 연동이 필요하다. 이는 미국과 영국 등에서는 이미 도입됐지만 일본에서는 아직 지원되지 않는 기능으로 현재 메타 일본 법인은 13∼17세를 상대로 틴(teen) 인스타그램 계정을 운영하고 있다.
또한 메타 일본 법인은 약물이나 발포를 비롯한 위험행위에 대한 게시물은 13∼17세의 열람을 제한하는 기능도 조만간 도입할 계획이다. 앞서 지난해 10월 메타 본사는 강화된 청소년 보호정책을 적용하겠다며 인스타그램의 청소년 계정을 영화 심의 기준인 ‘PG-13’ 등급과 비슷하게 운영하겠다는 계획을 발표한 바 있다. 이에 따르면 욕설이 심한 게시물이나 대마초 관련 용품이 등장하는 게시물처럼 잠재적으로 유해한 행동을 조장할 수 있는 콘텐츠를 숨기거나 추천하지 않는 것이 포함된다.
한편, 세계 각지에서 청소년 SNS 사용 폐해를 두고 문제가 제기되는 상황에서 마크 저커버그 메타 CEO는 청소년 SNS 중독의 유해성을 따지는 재판에 증인으로 출석한 바 있다.
김유정 기자주요뉴스
이슈NOW
기사 추천
- 추천해요 0
- 좋아요 0
- 감동이에요 0
- 화나요 0
- 슬퍼요 0