Los estafadores usan falsos resultados de búsqueda para engañar a los asistentes de voz.

Se ha detectado otro problema de seguridad en los dispositivos de asistente de voz. Sin embargo, no tiene nada que ver con la reciente controversia sobre la escucha de conversaciones privadas sin el conocimiento por parte de los usuarios.

Como ha informado el Better Business Bureau (BBB), los estafadores han descubierto cómo alterar los resultados de búsqueda de los números de teléfono de atención al cliente de importantes empresas.

Más información

#HablemosDeSeguridad

Vía @CybersecurityES

Siri graba tus conversaciones: Cómo eliminar grabaciones en iOS y Mac.

Apple suspendió su programa de análisis de grabaciones de Siri y en el futuro lo hará opcional. Por el momento, así puedes eliminar tus grabaciones

Apple reaccionó rápida y efectivamente a la noticia de que contratistas de la firma escuchan grabaciones de usuarios al usar, directa e indirectamente, al asistente virtual Siri. Aquí te decimos cómo ver las grabaciones que tiene Apple de tu interacción con Siri y, más importante, cómo eliminarlas.

Más información

#HablemosDeSeguridad

Vía @Cnet

Empleados de Apple escuchan conversaciones privadas de Siri.

La compañía ha subcontratado a una empresa para mejorar el rendimiento de Siri y sus empleados dicen escuchar todo tipo de detalles confidenciales, según ‘The Guardian’.

Apple dice en su política de privacidad que la empresa puede «recopilar y almacenar detalles sobre cómo usas los servicios, incluidas las consultas de búsqueda. Esta información se puede utilizar para mejorar la relevancia de los resultados que proporcionan nuestros servicio». Sin embargo, no señala explícitamente que ese trabajo es realizado por empleados o personas independientes que escuchan las grabaciones.

Más información

#HablemosDeSeguridad

Vía @cnet

Alemania quiere combatir el crimen mediante asistentes de voz.

La información capturada por los dispositivos inteligentes podría ser útil para los departamentos de policía con el objetivo de combatir el crimen del país europeo.

Alemania quiere acceso a la información recopilada por los asistentes de voz como Alexa y Siri, una propuesta que provocará el debate en un país que se destaca por su enfoque en la privacidad.

Más información

#HablemosDeSeguridad

Vía @ExpansionMx

Siri, Alexa y Cortana refuerzan estereotipos sexistas: Unesco.

Los asistentes digitales Siri de Apple, Alexa de Amazon y Cortana de Microsoft refuerzan los prejuicios de género y normalizan el acoso sexista, señala un estudio de la Organización de Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco).

El informe titulado “I’d blush if I could: closing gender divides in digital skills though education” (“Me ruborizaría si pudiera: cerrando la brecha de género en herramientas digitales mediante la educación”).

Más información

#HablemosDeSeguridad

Vía @Proceso