Escándalo: Siri escucha y graba a sus usuarios teniendo relaciones sexuales

 

Alarmados están los usuarios de Apple al descubrirse que Siri escucha y graba conversaciones privadas de sus usuarios, incluso cuando tienen relaciones sexuales.

Esto lo dio a conocer un contratista de la compañía a la revista The Guardian, donde reveló detalles de cómo “accidentalmente” el asistente de voz registra a las personas en su intimidad, enviando la información inmediatamente a empleados de Apple para hacer un “control de calidad”.

De acuerdo con el informe, el dispositivo no solamente graba a parejas en medio de su intimidad, el empleado reveló también que la información es enviada a contratistas de la compañía.

Apple por su parte le dijo al medio estadounidense que esto sirve para garantizar que Siri responda correctamente y pueda continuar distinguiendo el dictado; sin embargo, el dilema puede ir más allá, puesto que en la polémica se ven incluidas grabaciones privadas de médicos con sus pacientes, negocios, negocios criminales y por supuesto, actos sexuales. Lo que más preocupa es que estas grabaciones  están acompañadas de información del usuario como ubicación, datos de contacto y datos propios de la aplicación.

Las grabaciones pueden ser resultado de acciones accidentales por parte del usuario en su Iphone, Iwatch y HomePod, donde se graba en audio 30 segundos del momento que esté viviendo el usuario. Aunque parece poco, es tiempo considerable para tener un contexto de la actividad que esté realizando.

Lo más alarmante, dice el empleado de Apple, es “la cantidad de personas en todo el mundo que tiene acceso a estos momentos privados ya que no hay mucha investigación de quien trabaja allì”. “Siri es el sueño de un chantajista hecho realidad ... o una agencia de espionaje, o voyeur, o adversario político, o simplemente un pervertido, concluyó.

Apple no es la única compañía envuelota en este tipo de escándalos, el altavoz inteligente de Amazon, Echo Dot, grabó una conversación de los propietarios de una casa y sin permiso envió esta grabación a su amigo. Representantes de Amazon explicaron que se debió a un error en el sistema de reconocimiento de voz, que interpretó incorrectamente varias frases y las tomó como órdenes para el asistente de voz.

 

Jhojan Osorio
Esta noticia ha sido publicada originalmente en N+1, Tecnología que suma.

Sobre N+1: Es la primera revista online de divulgación científica y tecnológica que permite la reproducción total o parcial de sus contenidos por medios de comunicación, bloggers e influencers, realizando la mención del texto y el enlace a la web: “Esta noticia ha sido publicada originalmente en la revista N+1, ciencia que sumawww.nmas1.org”.  

 

Novedades

Suscríbete

Déjanos tu mail para recibir nuestro boletín de noticias

La confirmación ha sido enviada a tu correo.