‘Deepfakes’: la amenaza con millones de visualizaciones que se ceba con las mujeres y desafía la seguridad y la democracia - TodoCryptos
Conecta con nosotras

Tecnología

‘Deepfakes’: la amenaza con millones de visualizaciones que se ceba con las mujeres y desafía la seguridad y la democracia

Publicado

sobre

“Esta es la cara del dolor”. Así arranca la creadora de contenidos QTCinderella un vídeo en el que denuncia haber sido víctima de la difusión de una secuencia pornográfica hiperrealista creada con inteligencia artificial. Las imágenes a las que se refiere son falsas, el daño causado no. La popular figura de internet, de 29 años, se suma a una larga lista de personas afectadas por este tipo de creaciones, conocidas como deepfakes. Las aplicaciones de inteligencia artificial las hacen cada vez más fáciles de producir y difíciles de identificar su falsedad mientras su regulación y control va por detrás del desarrollo de estas tecnologías. El número de estos contenidos en internet se dobla cada seis meses y acapara más de 134 millones de visualizaciones. Más del 90% de los casos es pornografía sin consentimiento. Una investigación de la Universidad Northwestern y de Brookings Institution (ambas de EE UU) alerta de su peligro potencial para la seguridad. Otros estudios advierten del riesgo de interferencia y manipulación en procesos políticos democráticos.

Sonia Velázquez, estudiante universitaria de Sevilla, sintió curiosidad por cómo funcionan los vídeos deepfakes y le pidió a su novio, estudiante de diseño gráfico, que le mostrara una prueba y se prestó a que lo hiciera con su imagen. “Empezó como un juego, pero no lo es. Me vi vulnerable. Sabía que no era yo, pero imaginé a todos mis amigos compartiendo ese vídeo, bromeando y sabe Dios qué más. Me sentí ensuciada y, aunque lo borramos de inmediato, no paro de pensar lo fácil que puede ser y el daño que puede causar”, relata.

“Verte desnuda en contra de tu voluntad y difundida en internet es como sentirse violada. No debería ser parte de mi trabajo tener que pagar dinero para que eliminen estas cosas, ser acosada. Me agota la constante explotación y cosificación de las mujeres”, afirma QTCinderella tras la difusión del vídeo deepfake del que ha sido víctima. Antes que ella, la artista británica Helen Mort sufrió la misma agresión con fotos que cogieron de sus redes sociales. “Te hace sentir impotente, como si te castigaran por ser una mujer con voz pública”, afirma. “Cualquier persona de cualquier ámbito de la vida puede ser el objetivo de esto y parece que a la gente no le importa”, lamenta otra víctima de los vídeos hiperrealistas que pide no ser identificada para evitar búsquedas en las redes, aunque cree haber conseguido borrar todo rastro.

Los bulos son tan antiguos como la humanidad. Las fotografías falseadas tampoco son recientes, pero se generalizaron a finales del pasado siglo con fáciles y populares herramientas de edición de imágenes estáticas. La manipulación de vídeos es más novedosa. La primera denuncia pública es de finales de 2017 contra un usuario de Reddit que la utilizó para desnudar a famosas. Desde entonces, no ha parado de crecer y ha pasado a la creación de audios hiperrealistas.

“Las tecnologías deepfake presentan desafíos éticos significativos. Se están desarrollando rápidamente y se están volviendo más baratas y accesibles día a día. La capacidad de producir archivos de vídeo o audio de aspecto y sonido realistas de personas que hacen o dicen cosas que no hicieron o dijeron trae consigo oportunidades sin precedentes para el engaño. La política, la ciudadanía, las instituciones y las empresas ya no pueden ignorar la construcción de un conjunto de reglas estrictas para limitarlas”, resume Lorenzo Dami, profesor de la Universidad de Florencia y autor de una investigación publicada en Research Gate.

Pornografía no consentida

Los vídeos hiperrealistas falsos afectan principalmente a las mujeres. Según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet, entre el 90% y el 95% de ellos son pornografía sin consentimiento y nueve de cada diez de estos se refieren a mujeres. “Este es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.

El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una de las formas de agresión machista.

La normativa va muy por detrás de los avances tecnológicos que hacen posibles las creaciones deepfakes. La regulación de la inteligencia artificial (AI Act) de la Comisión Europea aún es una propuesta y en España está pendiente el desarrollo de la agencia estatal para la supervisión de la inteligencia artificial. “La tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde”, advierte Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas.

Algunas empresas se han adelantado para evitar ser parte de actos delictivos. Dall-e, una de las aplicaciones de creación digital, advierte que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. También lo hacen otras populares aplicaciones de inteligencia artificial para creaciones audiovisuales o de reproducción de vídeos. Un grupo de diez empresas han firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable. Pero otras muchas saltan a sencillas aplicaciones móviles o campan libremente por la red, incluidas algunas expulsadas de sus servidores originales, como la que se popularizó con el lema Desnuda a tu amiga, y se refugian en otras plataformas de código abierto o de mensajería

El problema es complejo porque en él confluyen la libertad de expresión y creación con la protección de la intimidad y la integridad moral. “El derecho no regula una tecnología, sino lo que se puede hacer con la tecnología”, advierte Borja Adsuara, profesor universitario y experto en derecho digital, privacidad y protección de datos. “Solo cuando una tecnología únicamente pueda tener un uso malo se puede prohibir. Pero el único límite a la libertad de expresión y de información es la ley. No hay que prohibir una tecnología porque puede ser peligrosa. Lo que hay que perseguir son los malos usos”, añade.

Fotograma del vídeo de QTCinderella con el que la creadora de contenidos denuncia haber sido víctima de un vídeo falso pornográfico.QTCinderella en Twitch.tv

La resurrección virtual de Lola Flores

En este sentido, el profesor italiano Lorenzo Dami identifica usos positivos y negativos de esta tecnología. Entre los primeros destaca su utilización para producciones audiovisuales, una mejor interacción entre máquinas y humanos, expresión creativa (incluida la satírica), aplicaciones médicas, cultura y educación. Un ejemplo ha sido la viralizada resurrección virtual de Lola Flores para una campaña de publicidad, que se realizó con consentimiento de sus descendientes.

En el otro lado de la balanza se encuentran las creaciones hiperrealistas para extorsión sexual, injuria, venganza pornográfica, intimidación, acoso, fraude, desacreditación y falseamiento de la realidad, daño reputacional y atentados de índole económica (alterar mercados), judicial (falsear pruebas) o contra la democracia y la seguridad nacional.

Sobre este último aspecto, Venkatramanan Siva Subrahmanian, profesor de ciberseguridad y autor de Deepfakes y conflictos internacionales, advierte: “La facilidad con la que se pueden desarrollar así como su rápida difusión apuntan hacia un mundo en el que todos los estados y actores no estatales tendrán la capacidad de desplegar creaciones audiovisuales hiperrealistas en sus operaciones de seguridad e inteligencia”, advierte.

En este sentido, Adsuara cree que “más peligroso” que la falsa pornografía, pese a su mayoritaria incidencia, es el potencial daño a los sistemas democráticos: “Imagine que a tres días de las elecciones aparece un vídeo de uno de los candidatos diciendo una barbaridad y no hay tiempo para desmentirlo o, aunque se desmienta, es imparable la viralidad. El problema de los deepfakes, como ocurre con los bulos, no es solo que son perfectos para que parezcan verosímiles, sino que la gente se los quiere creer porque coinciden con su sesgo ideológico y los redifunde sin contrastar, porque le gustan y quieren pensar que es verdad”.

Regulación

La regulación actual, según el letrado, se fija en el resultado de las acciones y la intención del delincuente. “Si la escena nunca ha existido porque es falsa, no se está descubriendo un secreto. Habría que tratarlo como un caso de injurias o como delito contra la integridad moral al difundirlo con intención de humillar públicamente a otra persona”, explica.

“La solución podría estar”, añade Adsuara, “en aplicar una figura prevista en los casos de menores y que es la pseudopornografía infantil”. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.

También se pueden aplicar sistemas tecnológicos de identificación, aunque cada vez es más difícil porque la inteligencia artificial también desarrolla fórmulas de eludirlos.

Otra vía es exigir que cualquier tipo de contenido hiperrealista esté claramente identificado como tal. “Está en la carta de derechos digitales, pero todavía no se ha aprobado el reglamento de inteligencia artificial”, explica el abogado.

En España es habitual este tipo de identificación en los casos de pornografía falseada para evitar problemas legales. “Pero estas mujeres”, advierte Adsuara, “tienen que soportar que su imagen se fusione en un contexto pornográfico y va contra su derecho a la propia imagen, aunque no sea real, pero sí es realista”.

Pese al evidente daño de estos vídeos, las denuncias en España son escasas frente a las registradas en Estados Unidos, Reino Unido o Corea del Sur, aunque la proliferación de estos vídeos es proporcionalmente similar. El experto español en derecho digital cree que se le da menos importancia al ser evidente su falsedad y porque la denuncia en ocasiones solo sirve de altavoz para el delincuente, que busca eso precisamente. “Además”, lamenta, “esta sociedad está tan enferma que no lo percibimos como malo y, en vez de defender a la víctima, se la humilla”.

Josep Coll, director de RepScan, una empresa dedicada a eliminar la información perjudicial en internet, también confirma la escasez de denuncias por parte de personajes públicos afectados por vídeos falsos. Sin embargo, sí señala que abordan muchos intentos de extorsión con ellos. Relata el caso de un empresario del que difundieron un vídeo falso e incluyeron imágenes de un país al que había ido recientemente para sembrar las dudas entre aquellos de su círculo que conocían que el viaje se había producido. “Y de pornovenganza”, comenta. “De esos nos entran casos todos los días”. “En los casos de extorsión, buscan la reacción en caliente, que paguen por su retirada, aunque sepan que es falso”, añade.

Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS TECNOLOGÍA y Twitter y apuntarte aquí para recibir nuestra newsletter semanal



Lea el artículo completo aquí.

Tecnología

El sucio secreto de la inteligencia artificial

Publicado

sobre

Acciones ya cotidianas como consultar la mejor ruta para ir a algún sitio o traducir un texto requieren grandes cantidades de recursos energéticos, hidráulicos y minerales. Esas aplicaciones funcionan en la nube, un eufemismo para designar millones de potentes ordenadores organizados en extensos centros de datos. Para que las aplicaciones del móvil funcionen hacen falta legiones de computadoras que almacenen billones de datos y realicen operaciones en fracciones de segundo (por ejemplo, el cálculo de distancias teniendo en cuenta el tráfico). Se estima que el consumo energético de los centros de datos supone entre el 1% y el 2% del total mundial. Pero todo apunta a que estas cifras se van a disparar.

La inteligencia artificial (IA) generativa, la que hace posible los chatbots inteligentes como ChatGPT, así como las herramientas que generan ilustraciones originales o música a partir de texto, necesita mucho poder de computación. Las grandes tecnológicas, con Microsoft y Google a la cabeza, han decidido integrar estas funcionalidades en los buscadores, en los editores de texto o en el email. Nuestra relación con los programas de uso habitual va a cambiar: hasta ahora, apretábamos una serie de comandos para realizar ciertas actividades; dentro de poco nos encontraremos conversando con la máquina, pidiéndole que realice tareas que antes hacíamos nosotros.

¿Qué efecto tendrá en el medio ambiente este cambio de paradigma? Nadie lo sabe, pero todas las estimaciones son al alza. “La IA puede parecer etérea, pero está moldeando físicamente el mundo”, sentencia Kate Crawford en Atlas of AI. La australiana, investigadora principal de Microsoft Research y directora del AI Now Institute, alertó hace dos años de que los “costes planetarios” asociados a esta tecnología no paran de crecer. Algunos científicos calculaban hace cuatro años que el sector tecnológico supondría el 14% de las emisiones mundiales para 2040; otros, que la demanda energética de los centros de datos se multiplicará por 15 hasta 2030.

Todas esas previsiones pueden quedarse cortas. Son de antes de la irrupción de ChatGPT. Google y Microsoft acumulan centenares de millones de usuarios. ¿Qué pasa si todos ellos empiezan a usar herramientas apoyadas en IA generativa? El canadiense Martin Bouchard, cofundador de los centros de datos Qscale, cree que se necesitaría al menos cuatro o cinco veces más potencia computacional por cada búsqueda. Preguntados por sus niveles de consumo actuales y por sus previsiones de crecimiento en la era de la IA generativa, Google y Microsoft han preferido no aportar a este periódico datos concretos, más allá de reiterar su intención de alcanzar la neutralidad de carbono para 2030. Para Crawford, eso “significa que compensan sus emisiones comprando el crédito de la gente” a través de acciones de maquillaje medioambiental, como plantar árboles u otras acciones similares.

Uno de los pasillos del centro de datos que Google tiene en Douglas, Georgia (EE UU).

“La IA generativa produce más emisiones que un buscador corriente, que también consume mucha energía porque al fin y al cabo son sistemas complejos que bucean en millones de páginas web”, indica Carlos Gómez Rodríguez, catedrático de Computación e Inteligencia Artificial de la Universidad de La Coruña. “Pero la IA genera todavía más emisiones que los buscadores, porque usa unas arquitecturas basadas en redes neuronales, con millones de parámetros que hay que entrenar”.

¿Cuánto contamina la IA?

Hace un par de años que la huella de carbono de la industria informática alcanzó a la de la aviación cuando estaba en su máximo. Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida, incluyendo el proceso de fabricación, o 125 vuelos de ida y vuelta entre Pekín y Nueva York. Más allá de las emisiones, el consumo de recursos hídricos para la refrigeración de los sistemas (Google gastó 15.800 millones de litros en 2021, según un estudio de Nature, mientras que Microsoft declaró 3.600 millones de litros), así como la dependencia de metales raros para elaborar los componentes electrónicos, hacen de la IA una tecnología con grandes repercusiones en el medio ambiente.

Entrenar un modelo de procesamiento natural del lenguaje equivale a tantas emisiones como las que expulsarán cinco coches de gasolina durante toda su vida

No existen datos sobre cuánta energía y de qué tipo consumen las grandes tecnológicas, las únicas con una infraestructura lo suficientemente grande como para entrenar y alimentar los grandes modelos de lenguaje en los que se apoya la IA generativa. Tampoco hay cifras concretas de la cantidad de agua que gastan para refrigerar los sistemas, cuestión que ya está provocando tensiones en países como EE UU, Alemania u Holanda. Las empresas no están obligadas a facilitar esa información. “Lo que tenemos son estimaciones. Por ejemplo, entrenar GPT3, el modelo en el que se basa ChatGPT, habría generado unas 500 toneladas de carbono, el equivalente a ir y volver a la Luna en coche. Tal vez no es mucho, pero hay que tener en cuenta que el modelo se tiene que reentrenar periódicamente para incorporar datos actualizados”, sostiene Gómez. OpenAI acaba de presentar otro modelo más avanzado, GPT4. Y la carrera seguirá.

Otra estimación dice que el uso que se había hecho de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, podría equivaler al uso anual de unas 175.000 familias danesas, que no son las que más gastan. “Esto son proyecciones con las cifras actuales de ChatGPT; si se generaliza todavía más su uso, podríamos estar hablando de un consumo equivalente de electricidad de millones de personas”, añade el catedrático.

Vista aérea del centro de datos de Google de Saint-Ghislain, Bélgica.
Vista aérea del centro de datos de Google de Saint-Ghislain, Bélgica.

La opacidad de datos empezará a disiparse próximamente. La UE es consciente del creciente consumo energético de los centros de datos. Bruselas tiene en marcha una directiva que se empezará a discutir el año que viene (y, por tanto, tardaría al menos dos años en entrar en vigor) que fija exigencias de eficiencia y transparencia energética. EE UU trabaja en una normativa similar.

El costoso entrenamiento de los algoritmos

“Las emisiones de carbono de la IA se pueden descomponer en tres factores: la potencia del hardware que se utiliza, la intensidad de carbono de la fuente de energía que lo alimenta y la energía que se usa en el tiempo que dura el entrenamiento del modelo”, explica Álex Hernández, investigador postdoctoral en el Instituto de Inteligencia Artificial de Quebec (MILA).

Es en el entrenamiento donde se concentran la mayor parte de las emisiones. Ese entrenamiento es un proceso clave en el desarrollo de los modelos de aprendizaje automático, la modalidad de IA que más rápido ha crecido en los últimos años. Consiste en mostrarle al algoritmo millones de ejemplos que le ayuden a establecer patrones que le permitan predecir situaciones. En el caso de los modelos de lenguaje, por ejemplo, se trata de que cuando vea las palabras “la Tierra es” sepa que tiene que decir “redonda”.

El uso de electricidad en enero de 2023 en OpenAI, la empresa responsable de ChatGPT, equivale al uso anual de unas 175.000 familias danesas

La mayoría de centros de datos usan unos procesadores avanzados llamados GPU para realizar el entrenamiento de los modelos de IA. Los GPU necesitan muchísima energía para funcionar. El entrenamiento de los grandes modelos de lenguaje requiere decenas de miles de GPU, que necesitan operar día y noche durante semanas o meses, según detalla un reciente informe de Morgan Stanley.

“Los grandes modelos de lenguaje tienen una arquitectura muy grande. Un algoritmo de aprendizaje automático que te ayude a elegir a quién contratar quizás necesite 50 variables: dónde trabaja, qué salario tiene ahora, experiencia previa, etcétera. GhatGPT tiene más de 175.000 millones de parámetros”, ilustra Ana Valdivia, investigadora postdoctoral en computación e IA en King’s College London. “Hay que reentrenar toda esa especie de estructura, y además alojar y explotar los datos sobre los que se trabaja. Ese almacenaje también tiene un consumo”, añade.

Hernández, del MILA, acaba de presentar un artículo en el que analiza el consumo energético de 95 modelos. “Hay poca variabilidad del hardware usado, pero si entrenas tu modelo en Quebec, donde la mayoría de la electricidad es hidroeléctrica, reduces en un factor de 100 o más las emisiones de carbono respecto a lugares donde predomina el carbón, el gas u otros”, subraya el investigador. Se sabe que los centros de datos chinos se alimentan en un 73% de electricidad generada con carbón, lo que supuso la emisión de al menos 100 millones de toneladas de CO₂ en 2018.

Dirigido por Joshua Bengio, cuya aportación en las redes neuronales profundas le valió el premio Turing (considerado el Nobel de la informática), el MILA ha desarrollado una herramienta, Code Carbon, capaz de medir la huella de carbono de quienes programan y entrenan algoritmos. El objetivo es que los profesionales la integren en su código para saber cuánto emiten y que eso les ayude a tomar decisiones.

Más capacidad computacional

Existe el problema añadido de que la capacidad de computación necesaria para entrenar los mayores modelos de IA se duplica cada tres o cuatro meses. Así lo reveló ya en 2018 un estudio de OpenAI, que también avisaba de que “merece la pena prepararse para cuando los sistemas necesiten unas capacidades mucho mayores a las actuales”. Es una velocidad muy superior a la que marcaba la Ley de Moore, según la cual el número de transistores (o potencia) de los microprocesadores se duplica cada dos años.

“Teniendo en cuenta los modelos que se están entrenando en la actualidad, sí que hace falta más capacidad computacional para garantizar su funcionamiento. Seguramente, las grandes tecnológicas ya están comprando más servidores”, augura Gómez.

Para Hernández, las emisiones derivadas del uso de la IA es menos preocupante por varios motivos. “Hay mucha investigación dirigida a reducir el número de parámetros y complejidad de la energía que necesitan los modelos, y eso mejorará. Sin embargo, no hay tantas formas de reducirlas en el entrenamiento: ahí hace falta semanas de uso intensivo. Lo primero es relativamente sencillo de optimizar; lo segundo, no tanto”.

Una de las posibles soluciones para que los entrenamientos sean menos contaminantes sería reducir la complejidad de los algoritmos sin perder eficacia. “¿Realmente hacen falta tantos millones de parámetros para lograr modelos que funcionen bien? GhatGPT, por ejemplo, ha demostrado tener muchos sesgos. Se está investigando la forma de lograr los mismos resultados con arquitecturas más simples”, reflexiona Valdivia.

EL PAÍS Tecnología



Lea el artículo completo aquí.

Sigue leyendo

Tecnología

Los límites de tiempo en Instagram y TikTok no sirven para reducir el uso e incluso lo aumentan

Publicado

sobre

¿Cuánto tiempo de pantalla es demasiado tiempo de pantalla? Tiktok fijó un límite predeterminado de 60 minutos para todos los menores de 18 años. Otras redes y sistemas operativos también tienen funciones similares y dejan en manos de usuarios la opción de recibir una notificación cuando se alcanza al límite de tiempo autoimpuesto. Sin embargo, a pesar de las buenas intenciones, esas herramientas pueden tener un efecto adverso: en lugar de reducirlo, incluso incrementarlo.

Es lo que sugiere un estudio preliminar llevado a cabo por investigadores estadounidenses de las universidades de Duke y de Delaware sobre la efectividad de establecer límites de tiempo en redes sociales o de videojuegos. En uno de los experimentos, los participantes utilizaron TikTok libremente y, tras algunos días, se les pidió que establecieran un límite diario para ellos mismos dentro de la aplicación. Los resultados demostraron que, de media, los usuarios pasaron un 7% más de tiempo el día después de establecer el límite, que la mayoría fijó en 60 minutos.

Los investigadores comparan este efecto contradictorio con el que se produce cuando una persona establece un presupuesto para gastar en cosas no esenciales, como vestimenta u ocio. Al decidir destinar cien euros al mes en ropa, existe una tendencia de gastarlo por completo e incluso un poco más. Eso sucede porque queda entendido intuitivamente que tal presupuesto está reservado para esa acción, por lo que no genera un sentido de culpa al usarlo. Y superarlo “costará menos psicológicamente”, explica el estudio. Del mismo modo, fijar tantos minutos u horas para TikTok o Instagram influye en que el usuario piense “tengo este tiempo para esta actividad” y, por consiguiente, estará más dispuesto a dedicarlo.

Limitar o reducir

Además, la investigación detalla que tener más información sobre una determinada costumbre no es suficiente para modificarla. Así como tan solo registrar las actividades físicas o la ingestión de calorías son ineficaces para perder peso; monitorear el tiempo enganchado no es suficiente para cambiar de los hábitos digitales.

¿Entonces no vale de nada establecer esos límites? “Es una pregunta provocadora”, afirma Jordan Etkin, profesora de la Universidad de Duke e investigadora del estudio. Tal y como explica, no es que estas herramientas no ayuden, pero no son suficientes por su cuenta. Etkin subraya que la motivación por la cual se establecen esos límites es un factor importe a la hora de medir la efectividad. “Si tu objetivo es simplemente evitar cantidades periódicas excesivas, los límites deberían ayudarte a conseguirlo”, cuenta a EL PAÍS por teléfono. Sin embargo, si el propósito es reducir el tiempo invertido, esta estrategia solo tendrá oportunidad de ser efectiva si establece límites bajos, como de menos de 30 minutos diarios.

En comparación con los participantes del experimento que establecieron 90 minutos por día en TikTok, los que eligieron alrededor de 20 presentaron mejor control. “Aunque a veces sobrepases el límite que has decidido y elijas continuar en lugar de parar, esas notificaciones serían útiles a lo largo de los días para disuadirte de dedicar tanto tiempo a esa actividad”, prosigue Etkin. Sin embargo, el límite mínimo que un usuario de TikTok puede establecer es de 40 minutos. Por lo cual, es mejor que se busque en las funciones del móvil u otras aplicaciones que permiten fijar cantidades menores, como de 5, 10, o 20 minutos, que deben restringir el comportamiento más eficazmente. Pero hay otro problema. Si la persona se acostumbra con tales notificaciones y empieza a ignorarlas, perderá totalmente su eficacia.

El psicólogo sanitario José Tamayo Hernández cree que a pesar de la mayor conciencia colectiva sobre los efectos negativos de estar demasiado tiempo ante la pantalla, no siempre la percepción influye para controlar el uso, de manera que no interfieran en otras ocupaciones. “Es muy fácil ignorarlos si la persona no está suficientemente motivada respecto al cambio de comportamiento y concienciada de los inconvenientes que está generándole”, detalla.

El móvil, lejos de la mano

Además de deshabilitar las notificaciones automáticas de las aplicaciones o borrar las que no sean estrictamente necesarias, Tamayo Hernández sugiere otras estrategias como no tener el móvil físicamente al alcance para realizar actividades, principalmente durante las que requieren mantener la concentración, como estudiar y trabajar, o a la hora de dormir. Cuando el cumplimiento del límite autoimpuesto falla, el experto sostiene que hay que ir más allá de las funciones de la pantalla. “Hacer coincidir el uso del móvil con momentos o situaciones que tengan una duración limitada, como el trayecto en el transporte, descanso entre actividades programadas, o el tiempo de espera antes de la hora de alguna cita”, ejemplifica el psicólogo del centro sanitario Activa.

Otro abordaje es buscar salir del “piloto automático” y prestar atención consciente de las acciones, emociones y el contexto en que se encuentra momento a momento. El objetivo es que la persona se dé cuenta de lo que está haciendo (”estoy entrando a Instagram por quinta vez consecutiva sin buscar nada en particular”); qué debería estar haciendo (terminando los deberes); y de que cómo se siente (cansada, con sueño y ganas de dormir). “Tenemos tan automatizada la conducta de acceder a estas aplicaciones y de desplazarnos de una a otra, que apenas nos damos cuenta de todo el tiempo que nos consume al cabo del día mientras las visitamos”, manifiesta Tamayo Hernández.

Y la gran desventaja de estar enganchado al móvil se trata de las otras cosas que podría estar haciendo y que se dejan de hacer. La profesora Etkin habla sobre las funciones comunes en relojes inteligentes, como las que recuerdan a la gente que se ponga en pie. “No es para dejar de hacer algo, sino para empezar a hacer algo. Eso podría ser interesante para los límites de tiempo: enmarcar, en lugar de dejar de navegar TikTok, empezar a hacer otra cosa”, subraya.

EL PAÍS Tecnología



Lea el artículo completo aquí.

Sigue leyendo

Tecnología

Los expertos advierten: el PIN no es suficiente para proteger el móvil

Publicado

sobre

El robo de teléfonos móviles se ha convertido en una lacra a la que los fabricantes intentan hacer frente mediante sistemas de bloqueo remoto o geolocalización. Los terminales, hasta la fecha, tenían un único destino: el mercado de segunda mano, donde acaban siendo vendidos en portales de compra venta.

Sin embargo, se ha detectado una nueva intencionalidad tras el robo de terminales: el acceso a la identidad digital, y con ella, un perjuicio económico muy superior. El Wall Street Journal recoge esta creciente tendencia en bares y cafés en Estados Unidos: se vigila a la víctima, se observa (y en algunos casos, se graba) cómo introduce la contraseña en la pantalla, y en un descuido, se hurta el dispositivo.

Seis dígitos: un frágil candado, antesala de la pesadilla

La operativa para los cacos es muy sencilla y rentable, y su éxito radica en una serie de vulnerabilidades encadenadas. La primera de ellas, la comodidad humana: es mucho más sencillo desbloquear el móvil introduciendo unas pocas cifras, que hacerlo con varios caracteres que incluyen números y símbolos. La conciencia del usuario descansa tranquila pensando que es un sistema biométrico el que protege su información —en el caso de que el dispositivo cuente con ello—, pero todos los móviles se desbloquean con un código por si falla la biometría.

Y es aquí donde entra en juego el difícil equilibrio entre comodidad y seguridad. Un pin de cuatro cifras permite desbloquear con rapidez la pantalla, y por descontado, resulta muy fácil de recordar. Más si se trata de la misma secuencia que se emplea en los cajeros, código de acceso al portal… El ser humano es eminentemente práctico y siempre intenta encontrar el camino más corto entre dos puntos. En el caso de las contraseñas, aun conociendo los riesgos existentes cuando no se emplean combinaciones complejas, el cerebro sigue optando por los atajos, ignorando esta exposición al riesgo.

De hecho, un estudio llevado a cabo por investigadores de la universidad china de Zhejiang, demostró que el cerebro tiene un comportamiento caprichoso a la hora de recordar (u olvidar) las contraseñas: guardaba con más facilidad en la memoria aquellas secuencias sobre las que no se había puesto un especial interés en recordar. Esto es, que si uno, por poner un ejemplo, se esforzaba por recordar una nueva contraseña (pongamos 1564) y de regreso a su domicilio caminando miraba de soslayo el número de un portal (por ejemplo, el 1345), sería más fácil que recordara el segundo antes que el primero.

La contraseña no tiene que ser cómoda, sino larga y compleja

“Una vez se conoce el PIN utilizado para desbloquear el móvil, no solo se tiene acceso al contenido del dispositivo, sino también al de algunas aplicaciones que emplean este sistema de bloqueo como método de verificación de acceso. La mayoría de apps de bancos, por ejemplo”, explica Christian Collado, coordinador de Andro4all. De esta manera, el popular pin es la última puerta con la que los atacantes acceden a toda la información del propietario del móvil, incluyendo cuentas bancarias (si las tiene configuradas en el móvil).

No deja de ser paradójico que el mismo fabricante que invierte en sofisticadas soluciones biométricas de desbloqueo, permita que, a la postre, toda esta seguridad quede desbaratada por apenas seis dígitos. “Confiamos en toda la cadena de suministro”, explica Adrián Moreno, director de Cuadernos de Seguridad, “desde el fabricante hasta la empresa que nos lo vende; confiamos en los diseñadores, en la compañía que escribe el software y en el programa antivirus”.

Pero es el usuario quien, a la postre, elige entre conveniencia y seguridad, posiblemente dando por asumida esta segunda. “Lo ideal es usar métodos biométricos —lector de huellas o reconocimiento facial— para desbloquear el móvil en lugares públicos”, recomienda Collado, “en caso de que no sea posible, tener configurado un PIN de 6 o más dígitos, o bien una contraseña alfanumérica que combine letras, números y símbolos”. El objetivo último consiste en evitar que alguien espíe la actividad en pantalla y proceda a hurtar el dispositivo.

Una vez perpetrado este último, todo sucede muy deprisa. Los delincuentes acceden en cuestión de minutos al panel de control del móvil y cambian la contraseña de la cuenta de Google (si es un Android), o iCloud (cuando se trata de un iPhone) ¿Con qué objetivo? Para evitar que pueda ser recuperado desde otro dispositivo, por un lado, y por otro, para desactivar la geolocalización del mismo.

Qué hacer para protegerse

Joanna Stern, autora del reportaje en el Wall Street Journal, destaca que su entrevistada descubrió que su iPhone había sido robado en un bar de Nueva York; transcurridos apenas 3 minutos, perdió el acceso a su cuenta de Apple y en menos de veinticuatro horas, vio que se esfumaban 10.000 dólares de unos fondos de inversión en su poder.

La buena noticia es que, al tratarse de un método tan evidente, la solución es igual de simple: dificultar al máximo que puedan copiar la contraseña. A este respecto, los expertos proponen evitar de forma urgente cadenas de cifras simples (de cuatro o seis caracteres) y en su lugar, complicar al máximo la contraseña. Idealmente, lo más adecuado es hacer que esta sea larga y que incluya caracteres especiales y combine mayúsculas con minúsculas.

Evidentemente, al complicar la contraseña, se pierde la agilidad y mnemotecnia de introducir un pin de pocos dígitos, pero es un peaje que debe pagarse en aras de la seguridad. Los expertos van todavía más lejos en sus recomendaciones: instan a desvincular, en lo posible, el código de desbloqueo del móvil con el acceso a determinadas cuentas. De esta manera, se minimizaría la segunda vulnerabilidad: permitir el acceso a cuentas con contenido comprometido mediante la misma contraseña que protege la pantalla.

EL PAÍS Tecnología



Lea el artículo completo aquí.

Sigue leyendo
Advertisement

Boletin Informativo

Suscríbase a nuestro boletín para recibir las últimas noticias directamente en su bandeja de entrada.


Tendencias