Borrar
ADOBE STOCK / IMAGEN GENERADA POR IA
¿Usas 'apps' para convertir los audios de WhatsApp en texto? Piénsatelo dos veces

¿Usas 'apps' para convertir los audios de WhatsApp en texto? Piénsatelo dos veces

Los expertos en ciberseguridad alertan sobre la cara oculta de estas herramientas de inteligencia artificial

J. Castillo

Martes, 12 de marzo 2024, 00:08

Necesitas ser registrado para acceder a esta funcionalidad.

Opciones para compartir

Que WhatsApp se ha convertido en una herramienta de comunicación indispensable para la mayoría de los mortales no es ningún secreto; que muchas veces el vaivén de mensajes puede llegar a interponerse en nuestra rutina, tampoco. Entre los aspectos de la aplicación más criticados por los usuarios encontramos la creación indiscriminada de grupos de conversación (la mayoría de veces faltos de interés por convertirse en un recopilatorio de imágenes chistosas).

Pero si hay algo que saca de quicio a más de uno eso son las notas de voz: audios generalmente de varios minutos con los que el emisor se despacha a gusto sin importarle que el otro tenga o no disponibilidad para escucharlos. Semejantes actos de egoísmo han traído consigo numerosas aplicaciones diseñadas única y exclusivamente para convertir la locución de turno en texto, de forma que podamos dilucidar el mensaje al momento y decidir si reviste la suficiente importancia como para atenderlo.

Además de estas aplicaciones, se han popularizado de un tiempo a esta parte contactos de WhatsApp tras los cuales se encuentran las controvertidas inteligencias artificiales: basta reenviarles un audio para que lo transcriban al momento sin que nuestro interlocutor lo sepa. Ahora bien, ¿hasta qué punto es seguro que les brindemos acceso a esos mensajes de voz?

Josep Albors, director de Investigación y Concienciación de la división española de la firma de ciberseguridad ESET, explica que «si bien estas herramientas son muy convenientes, no podemos ignorar los riesgos inherentes asociados con su uso generalizado». Para empezar, desde el punto de vista de la privacidad, ya que muchas aplicaciones y bots basan su funcionalidad en el reconocimiento de voz y los algoritmos de 'machine learning': «Las empresas responsables pueden usar los audios para mejorar su algoritmos, cuando no almacenarlos en sus servidores o en los de terceros», prosigue Albors.

Pero la privacidad también puede verse afectada cuando la transcripción se realiza de forma manual, mediante la intervención humana: las personas que transcriben tienen acceso a información confidencial que en último término puede ser cedida a terceros (de acuerdo a esos términos y condiciones que a menudo pasamos por alto). ESET pone como ejemplo la polémica en que se vió inmersa Meta en 2019, cuando se descubrió que pagaba a contratistas para transcribir los chats de voz enviados por algunos usuarios a través de Messenger.

Más allá de lo que dices

Como muchas otras aplicaciones surgidas fruto de la viralidad, las que transcriben audios pueden solicitar permisos que no necesitan y que ponen al descubierto buena parte de la información almacenada en nuestro teléfono: ubicaciones habituales, listados de contactos, historiales de chat... Albors indica que «la recogida de esta información supone un riesgo si se hace un uso indebido de ella, se comparte con terceros sin el consentimiento informado del usuario o si no está debidamente protegida en los servidores de la empresa que la almacena». Algo que como hemos apuntado también puede poner en riesgo a nuestros amigos y familiares, fruto de quedar expuestas sus direcciones de correo electrónico y sus números de teléfono. A través de éstos se articulan, de hecho, la mayoría de los intentos de estafa: emails o mensajes SMS que imitan a instituciones, empresas de mensajería o entidades bancarias.

Y precisamente porque las 'apps' que nos incumben están de moda, muchos ciberdelincuentes se suben al carro para camuflar programas maliciosos (lo que en argot se conoce como 'malware'). Muchas de estas aplicaciones fraudulentas imitan además a otras de confianza, por lo que ESET recomienda comprobar detenidamente la información sobre su desarrollador y las valoraciones dejadas por otros usuarios.

En un caso más extremo (aunque técnicamente posible), los delincuentes pueden manipular los audios que sustraen para suplantar nuestra identidad: los modelos de machine learning procesan las señales de audio y aprenden cómo pronunciamos las palabras o estructuramos las frases. Todo con el objetivo de convencer a nuestros amigos y familiares de que estamos en una situación de necesidad, lo que en muchas ocasiones termina con la cuenta bancaria de la víctima en números rojos.

Cómo mantenernos a salvo

ESET ofrece una serie de recomendaciones adicionales para evitarnos correr riesgos si, pese a lo dicho, optamos por transcribir los audios de nuestro amigo el parlanchín:

Recurrir a tiendas de confianza: Descargar la 'app' de marras a través de las tiendas de Google (Play Store) o Apple (App Store), evitando aquellas que se ofrecen por otras vías, a través de anuncios en las redes sociales que enlazan a páginas web fraudulentas.

Atender a la letra pequeña: Antes de descargar una app debemos prestar atención al apartado que indica si los datos de voz se almacenan y comparten con terceros, quién tiene acceso a ellos, si se cifran durante la transmisión y si podemos solicitar que los eliminen. Lo mejor es optar por apps que anonimicen la información.

No dar información sensible: Si mandamos un audio o tienen que enviárnoslo, mejor pedirle al interlocutor que no pronuncie datos delicados como contraseñas o números de tarjetas de crédito. No se sabe quién podría estar escuchando.

Mantener tu móvil actualizado: Los fabricantes disponen parches de seguridad constantes a través de las actualizaciones de sus sistemas operativos, por lo que debemos asegurarnos de tener el dispositivo al día (también las propias aplicaciones de transcripción). Tampoco está de más instalar una solución antivirus, capaz de rastrear el almacenamiento del terminal en busca de 'malware'.

Reporta un error en esta noticia

* Campos obligatorios