Instagram prohíbe imágenes y memes que promuevan el suicidio

Instagram implementó nuevas medidas y políticas con el fin de prohibir contenido que promueva autolesiones y suicidos. El medio social propiedad de Facebook ya no permite publicar ilustraciones, memes o cualquier imagen alusiva a estos temas.

Un antecedente que ha empujado esta situación es el caso de Molly Russell, adolescente británica de 14 años, quien lamentablemente se quitó la vida en 2017. Después de las investigaciones, se reveló que su historial en redes sociales destacaba que seguía cuentas relacionadas con depresión y suicidio, situación que derivó en un intenso debate en ese país, acerca del control parental y la regulación estatal del uso de las redes sociales por parte de niños.

Adam Mosseri, presidente ejecutivo de Instagram, señaló en el blog de la plataforma que la aplicación tiene como objetivo «lograr el difícil equilibrio entre permitir que las personas compartan sus experiencias de salud mental y al mismo tiempo proteger a otros de la exposición a contenido potencialmente dañino».

Instagram también puede ahora eliminar imágenes que «incluyen materiales o métodos asociados» relacionados con la autolesión y el suicidio, y las cuentas que comparten este tipo de contenido no se recomendarán en la búsqueda u otras partes de la aplicación, dijo la compañía.

Mosseri señaló que «la trágica realidad es que algunos jóvenes están influenciados de manera negativa por lo que ven online, y como resultado podrían lastimarse. Este es un riesgo real«.

Investigación sobre incitación a suicidio colectivo en redes sociales en CCH de Vallejo

Después de que un presunto estudiante del Colegio de Ciencias y Humanidades (CCH) de Vallejo, de la UNAM, promovió a través de redes sociales a llevar a cabo un «suicidio colectivo» dentro del plantel, la Procuraduría General de Justicia de la Ciudad de México (PGJCDMX) investiga el caso.

De acuerdo con la carpeta de investigación, el 6 de septiembre, la Fiscalía Desconcentrada de Investigación de la alcaldía de Gustavo A. Madero, recibió la denuncia, por parte del apoderado legal de dicha institución educativa, y turnó el caso a la Fiscalía General de la República por ser hechos de su competencia.​

De una manera similar a las matanzas que ocurren en colegios de Estados Unidos, la investigación señala que Ángel “N”, presunto alumno de dicho plantel, publicó en su cuenta de Facebook que el 20 de septiembre realizaría una matanza de alumnos, y que después se suicidaría.

Ante esta publicación, y derivado de una denuncia, las autoridades de la Universidad Nacional Autónoma de México (UNAM) y de la Policía Cibernética, pudieron ubicar y atender al estudiante, quien tiene antecedentes de consumo de drogas y cuadros de depresión.

Por otro lado, en relación a este caso, el presidente del Consejo Ciudadano para la  Seguridad y Justicia de la Ciudad de México, Salvador Guerrero Chiprés, destacó la importancia de atender las señales de riesgo suicida a tiempo, ya que al hacerlo se puede, literalmente, salvar una vida, tal y como se logró en este caso.

¿Qué pasa con YouTube y los videos engañosos para niños?

El portal de Expansión ha publicado un articulo muy interesante relacionado con los mecanismos a través de los cuales se engaña a los niños e incita a la violencia.

Expansión señala que tanto en YouTube como en YouTube Kids, que es la plataforma del gigante tecnológico para los menores de 13 años, hay millones de videos con canciones infantiles, juguetes y caricaturas populares donde los creadores de contenido identifican una oportunidad para posicionar videos con violencia, promoción del suicidio y bullying.

Según el portal, el escritor James Bridle asegura que estos grupos usan personajes populares animados de películas o caricaturas para hacer “otras versiones”, así como de canciones populares como Baby Shark Finger family modificando la letra. 

Se han detectado videos que utilizan nombres sin sentido en sus títulos pero con palabras populares con el fin de perderse entre los miles de contenidos de este tipo, lo que provoca un buen posicionamiento gracias al algoritmo de YouTube que los vuelve recomendables. Además, el contenido de YouTube Kids se extrae directamente de la plataforma principal de Youtube, a través de dichos algoritmos.

Esta situación no es desconocida por la compañía. En 2017, el personaje más usado para este tipo de videos era Peppa Pig y en ellos se promovía la violencia, el miedo y el suicidio. Un video de la popular cerdita mostraba a los personajes comiendo pasteles con cocaína y llegó a tener más de 1 millón de visitas antes de ser eliminado de la plataforma. Lamentable.

Ese mismo año, la plataforma eliminó 150,000 videos de niños con comentarios pedófilos y con contenido inapropiado para menores. Para 2018, Google y YouTube notificaron sus medidas para tratar de erradicar el problema y tan solo en un trimestre borraron más de 8 millones de videos y detectaron canales que promocionaban estos contenidos inadecuados.

El reto de YouTube y Google es grande para evitar que cada día se suban miles de contenidos de este tipo. Los videos no están tan escondidos, tienen miles de reproducciones y usan personajes como Hulk, Elsa y Paw Patrol para pasar desapercibidos. Y es que los canales para niños no son pocos y, aunque no todo el contenido para ellos es así, es difícil que se pueda revisar todo lo que está en la plataforma.

Por ello, es sumamente importante que los padres supervisen el contenido que visualizan sus hijos en estas plataformas.

Instagram: la historia de la joven que les preguntó a sus seguidores si debía morir y acabó suicidándose

Con información de BBC news

Una joven de 16 años se suicidó en Malasia luego de realizar una encuesta en Instagram preguntándoles a sus seguidores si debía vivir o morir.
«Muy importante. Ayúdenme a escoger M/V». Según las autoridades, las letras M y V representaban Morir o Vivir, respectivamente.

Según la policía de Sarawak, al este de Malasia, en un momento dado más de dos tercios de los encuestados -el 69%- estaba a favor de la muerte de la joven.
La adolescente -cuyo nombre no se ha difundido- se habría suicidado el lunes, horas después de haber publicado la encuesta en la red social.

Preocupación por jóvenes

En Malasia, diversos líderes políticos están exigiendo una investigación.

El ministro de la juventud y deportes, Syed Saddiq, dijo estar «realmente preocupado por el estado de salud mental de nuestros jóvenes».
«Es un problema nacional que debe tomarse en serio», agregó.

Según la ley en Malasia, cualquier persona declarada culpable de alentar o asistir al suicidio de un menor de edad puede ser condenada a muerte o a hasta 20 años de cárcel.
Pero la preocupación, que tampoco es nueva, se ha extendido mucho más allá de las fronteras malayas.

Responsables de Instagram acudieron ayer al Parlamento británico, donde se refirieron al caso.
Vishal Shah, jefe de productos de Intagram, indicó que la noticia es «ciertamente es muy impactante y triste».
Frente a miembros del Parlamento, el representante de la red social también aseguró que están estudiando si necesitan hacer cambios en sus normas para evitar este tipo de sucesos.
«Hay casos donde nuestra responsabilidad de mantener a la comunidad segura y apoyada se pone a prueba, y estamos constantemente observando nuestras políticas. Estamos analizando en profundidad si los productos, en general, cumplen las expectativas con las que los creamos», dijo.

¿Qué hacer si ves a alguien publicando acerca de quitarse la vida?

Las organizaciones de prevención del suicidio recomiendan que, si sabe de alguien que está en peligro de quitarse la vida, se debe llamar a los servicios de emergencia para pedir ayuda.
Si la persona no está en peligro inmediato, se puede informar sobre la publicación, ponerse en contacto con la persona que subió el contenido si lo conoce o ponerlo en contacto con líneas de ayuda.

Puedes encontrar enlaces de ayuda para la prevención del suicidio en España, América Latina y EE.UU. haciendo clic aquí.

«Muchas plataformas de medios sociales llegarán a los usuarios si publican cosas que sugieren que podrían estar en peligro», dice Lucy Biddle, profesora de sociología médica en la Universidad de Bristol que ha investigado el uso de Internet relacionado con el suicidio.
La académica recomienda informar sobre las publicaciones que presentan riesgo de suicidio para que la plataforma pueda comunicarse con el usuario e informarle a dónde puede acudir en busca de ayuda.
Instagram, por su parte, afirma: «Tenemos una gran responsabilidad de asegurarnos de que las personas que usan Instagram se sientan seguras y con respaldo. Como parte de nuestros propios esfuerzos, instamos a todos a usar nuestras herramientas y contactar a los servicios de emergencia si ven algún comportamiento que ponga la seguridad de las personas en riesgo».
En la aplicación, puede tocar el ícono de tres puntos y luego seleccionar «informe», seguido de «es inapropiado» y «autolesión».

Por su parte, Karina Newton, jefa de políticas públicas de Instagram, afirmó en Westminster que la encuesta realizada por la joven en Malasia habría violado los lineamientos de la compañía.
En febrero, Instagram ya anunció que lanzaría «pantallas de sensibilidad» para bloquear imágenes de autolesiones.

La medida se produjo tras la muerte de Molly Russell, una adolescente británica cuyo padre aseguró que Instagram era en parte responsable por su muerte.
Esto, porque su familia indagó en las cuentas de las redes sociales que la joven seguía, y encontró contenido sobre la depresión y las autolesiones.
Sin embargo, al ser consultados por la posibilidad de que la gigante tecnológica analice qué usuarios podrían estar en riesgo de autolesión -y, así, comunicarse con ellos-, Newton afirmó que podrían existir problemas de privacidad que considerar.
Ambos ejecutivos se negaron a especular sobre qué pasos tomará Instagram al respecto.
«Espero que comprendan que es demasiado pronto. Nuestro equipo está investigando cuáles fueron las violaciones de contenido», dijo Newton.

Fuente: BBC News