mars 2, 2021

YouTube Kids inapproprié: une maman horrifiée découvre des instructions de suicide dans une vidéo sur YouTube et YouTube Kids

Par admin2020

[ad_1]

Avertissement: Cet article présente un contenu inquiétant et mentionne le suicide.

Une vidéo faisant la promotion de conseils d’automutilation – collée entre des clips d’un jeu vidéo populaire – a fait surface au moins deux fois sur YouTube et YouTube Kids depuis juillet, selon un pédiatre et une maman qui ont découvert la vidéo.

Les instructions de suicide sont prises en sandwich entre des clips du célèbre jeu Nintendo Splatoon et livrées par un homme parlant devant ce qui semble être un écran vert – un effort apparent pour le faire se fondre dans le reste de la vidéo animée.

« Souvenez-vous des enfants, sur le côté pour attirer l’attention, sur le côté pour les résultats », dit l’homme, imitant les mouvements de coupe sur son avant-bras. « Y mettre fin. »

L’homme présenté est YouTuber Sale Frank, qui compte plus de 6,2 millions d’abonnés et se dit «l’incarnation de tout ce qu’une personne ne devrait pas être», bien qu’il n’y ait aucune preuve que Frank, de son vrai nom George Miller, ait été impliqué dans la création de la vidéo falsifiée. Il n’a pas immédiatement répondu à la demande de commentaires de CBS News.

Quand Free Hess a trouvé la vidéo sur YouTube la semaine dernière, elle l’a posté sur son blog – avertir les autres parents de prendre le contrôle de ce que leurs enfants peuvent regarder.

« En regardant les commentaires, cela faisait un moment, et les gens l’avaient même signalé huit mois auparavant », a déclaré Hess à CBS News vendredi.

Peu de temps après avoir publié son article de blog, YouTube a retiré la vidéo, affirmant qu’elle enfreignait les règles de la communauté du site, selon Hess.

Hess a déclaré avoir repéré une autre version de la même vidéo sur YouTube Kids en Juillet de l’année dernière. Elle a déclaré qu’elle et de nombreux autres parents de groupes Facebook s’étaient réunis pour le signaler et que la vidéo avait finalement été retirée après qu’un parent ait contacté directement un employé de Google. Google n’a pas répondu à l’enquête de CBS News sur les étapes qui ont conduit à la suppression de la vidéo.

Hess a déclaré qu’après avoir constaté des taux plus élevés de suicide chez les enfants dans sa propre salle d’urgence au cours des dernières années, elle s’était donnée pour mission de sensibiliser le public au contenu dérangeant et violent consommé par les enfants sur les réseaux sociaux. Elle a dit qu’elle avait signalé des centaines de vidéos troublantes sur YouTube, avec un certain succès. Vendredi, elle a trouvé et signalé sept autres vidéos dérangeantes sur YouTube Kids, et a déclaré qu’ils n’étaient que la pointe de l’iceberg.

« J’ai dû m’arrêter, mais j’aurais pu continuer », a déclaré Hess. « Une fois que vous commencez à y regarder, les choses deviennent de plus en plus sombres et bizarres. Je ne comprends pas comment ça ne se fait pas prendre. »

YouTube Kids est censé être une version adaptée aux enfants du site YouTube pour les enfants de 8 ans et moins, mais les trolls ont trouvé des moyens de contourner l’algorithme de YouTube et publient des vidéos potentiellement dangereuses.

« Ils sont horribles. Absolument horrible », a déclaré Hess à propos de certains contenus de l’application YouTube Kids.

Elle a dit qu’elle se connectait à l’application en se faisant passer pour un enfant, plutôt qu’un adulte, afin de voir exactement ce que les enfants du monde entier voient. Les vidéos trouvées par Hess contiennent des mentions ou des images d’automutilation, de suicide, d’exploitation sexuelle, de traite, de violence domestique, d’abus sexuel et de violence armée, y compris une simulation de fusillade dans une école. Elle a déclaré que beaucoup d’enfants qu’elle traitait dans les vidéos de la liste des urgences sur YouTube comme une méthode utilisée pour apprendre des comportements destructeurs et des techniques d’automutilation.

Un porte-parole de YouTube a déclaré vendredi à CBS News que le site travaillait dur « pour s’assurer que YouTube ne soit pas utilisé pour encourager des comportements dangereux ». Le porte-parole a également déclaré que YouTube avait des « politiques strictes » qui interdisent les vidéos qui encouragent l’automutilation.

«Nous nous appuyons à la fois sur le marquage des utilisateurs et sur la technologie de détection intelligente pour signaler ce contenu à nos examinateurs», a déclaré le porte-parole. « Chaque trimestre, nous supprimons des millions de vidéos et de chaînes qui enfreignent nos règles et nous supprimons la majorité de ces vidéos avant qu’elles ne soient vues. Nous nous efforçons toujours d’améliorer nos systèmes et de supprimer plus rapidement les contenus non conformes. progrès dans un rapport trimestriel et donnez aux utilisateurs un tableau de bord indiquant l’état des vidéos qu’ils nous ont signalées. « 

Cependant, YouTube Kids a l’habitude de laisser des vidéos dérangeantes et violentes passer au-delà de ses algorithmes. En 2017, en recherchant le mot «pistolet» sur l’application, une vidéo expliquant comment construire un pistolet à bobine a fait surface, a rapporté Mashable. Autres vidéos à l’époque présentait Mickey Mouse dans une mare de sang et Spider-Man urinant sur Elsa, la princesse de « Frozen », provoquant des réactions négatives.

« L’équipe YouTube Kids est composée de parents qui se soucient profondément de cela, il est donc extrêmement important pour nous de bien faire les choses, et nous agissons rapidement lorsque des vidéos sont portées à notre attention », a déclaré une porte-parole de YouTube. CNET à l’époque. « Nous convenons que ce contenu est inacceptable et nous nous engageons à améliorer l’application chaque jour. « 

Depuis le contrecoup de 2017, YouTube a décrit les mesures qu’il prend pour améliorer la sécurité de son application Kids. En novembre 2017, la société a présenté un nouvel ensemble de des lignes directrices, y compris «une application plus rapide» des directives de la communauté et «le blocage des commentaires inappropriés». En avril de l’année dernière, YouTube a annoncé trois nouveaux fonctionnalités de contrôle parental pour donner aux parents la possibilité d’organiser ce que leur enfant voit sur l’application. Il y a aussi un nombre d’autres façons pour que les parents rendent l’application plus sûre, mais aucun d’entre eux n’est automatique.

Cette semaine, de nouveaux cas de contenu inapproprié ont été signalés réponses de haut niveau, y compris de Disney et Nestlé, qui publicité tirée de YouTube après qu’un blogueur a décrit « un trou de ver dans un anneau de pédophilie soft-core » sur le site.

YouTube a déclaré jeudi qu’il prenait des mesures agressives, interdiction plus de 400 comptes et en supprimant des dizaines de vidéos.

Les critiques disent son approche de la sécurité sur toutes les plates-formes ne fonctionne tout simplement pas.

Les parents restent préoccupés par la sécurité sur YouTube et YouTube Kids. «Nous devrions commencer par nous éduquer, éduquer nos enfants et parler quand nous voyons quelque chose de dangereux pour nos enfants», a écrit Hess sur son blog. « Nous devons également lutter pour que les développeurs de plateformes de médias sociaux soient tenus pour responsables lorsqu’ils ne garantissent pas que les restrictions d’âge sont respectées et lorsqu’ils ne suppriment pas les contenus inappropriés et / ou dangereux lorsqu’ils sont signalés. »



[ad_2]

Source link