Ir al contenido principal

Hábitos sobre la IA: el 80% la usa, pero más de la mitad no chequea la información obtenida

 


La Inteligencia Artificial es parte cada vez más preponderante de nuestro día a día, ya sea como fuente de consulta o como herramienta para optimizar cuestiones laborales y de estudio. Lo cierto es que un uso incorrecto o descuidado de la IA puede exponer a riesgos innecesarios y peligrosos. Ante este escenario, ESET, compañía líder en detección proactiva de amenazas, realizó una encuesta en Latinoamérica para comprender los hábitos de uso y comparte los principales resultados, como también qué aprendizaje se puede obtener respecto de las medidas de seguridad que se utilizan para preservar datos y privacidad, al interactuar con la Inteligencia Artificial 

La encuesta incluyó la participación de más de 1.000 usuarios y usuarias de Venezuela, México, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay. 

Uno de los datos destacados de la encuesta es que el 80% indicó usar la IA (45% lo hace frecuentemente, y 35% ocasionalmente). Asimismo, el 55% afirmó que no chequea siempre la información obtenida. El 14% no lo hace nunca, y el 39% lo hace solamente a veces. Desde ESET destacan que esto puede ser muy riesgoso. 

 

“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (y más en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre es aconsejable contrastar la información obtenida con fuentes oficiales.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica. 

Los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas. Así, un ciberatacante podría inducir a la IA a responder brindando instrucciones erróneas o proporcionar información falsa. 

Otro punto para tener en cuenta es que el 40% afirmó compartir con frecuencia o esporádicamente información personal y laboral con la Inteligencia Artificial (el 17% siempre, y el 25% a veces). Además, casi el 60% no lee las políticas de privacidad y solo la mitad de las personas toma una medida concreta para proteger su información. 

Diagrama

El contenido generado por IA puede ser incorrecto.

 

En principio, desde ESET comentan que es aconsejable evitar compartir datos personales y sensibles. Por ejemplo, no ingresar proactivamente información personal, como contraseñas o datos bancarios, en cualquier chat de IA. Esto se debe a que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos se almacenen y se expongan en el futuro. 

Además de no compartir información personal y laboral en este tipo de herramientas, es muy importante tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro. Desde ESET recomiendan revisar periódicamente términos y políticas de la aplicación, por cualquier nueva opción de seguridad y privacidad que esté disponible. 

De cara al futuro, la Inteligencia Artificial es vista en la región con muy buenos ojos por la mayoría de los encuestados donde el 80% la ve como algo positivo. Aun así un 43% cree que la IA será útil en los próximos años, pero con riesgos asociados. Entre las principales preocupaciones vinculadas al uso de la IA, estas fueron las destacadas:

·        65%: fraudes y estafas

·        47%: deepfakes y fakenews

·        45%: falta de privacidad y recopilación de datos 

“En relación con los fraudes y estafas, no es una novedad que el cibercrimen ha encontrado en la Inteligencia Artificial una herramienta más que lo potencia. De hecho, aumentó el número de correos de phishing, dado que la IA generativa elabora contenidos cada vez más convincentes para que las víctimas revelen información sensible u obtener algún rédito económico. Pero no es todo ya que las estafas por audio también se han perfeccionado, al punto que se necesitan tan solo unos pocos segundos de la voz de una persona para producir algo peligrosamente real.”, agrega el investigador de ESET. 

En cuanto a las deepfakes y fakenews, hay un dato del MIT que avala esta preocupación ya que las noticias falsas tenían un 70% de probabilidad más de ser compartidas que las noticias reales. Los ciberdelincuentes también utilizan la información fabricada como una herramienta, ya que hay sitios web que aparentan ser medios legítimos y publican artículos diseñados para generar alarma. El objetivo es redirigir a los usuarios a páginas maliciosas. Este tipo de phishing combina desinformación con tácticas de ingeniería social, creando escenarios convincentes que facilitan el fraude digital. 

Respecto a la privacidad y recopilación de datos, desde ESET remarcan que es clave entender qué tipo de datos almacena la herramienta utilizada, si luego se comparte con terceros y de qué manera será usada esa información en el futuro. 

“El análisis de los resultados obtenidos en la encuesta permite confirmar que si bien hay una gran adopción respecto de la Inteligencia Artificial, aún queda mucho camino por recorrer en cuanto a los hábitos responsables y seguros de la misma. La falta de chequeo de la información, el poco cuidado al compartir datos sensibles y el desinterés en las políticas de privacidad son alarmas que deben ser escuchadas. La solución no está en temerle a la herramienta o dejar de usarla, sino en incorporar acciones concretas, para utilizarla de manera segura y crítica. En este escenario, entonces, el desafío es llevar a cabo un uso más consciente de la IA.”, concluye Gutiérrez Amaya, de ESET Latinoamérica. 

Copyright © 1992 – 2025. Todos los derechos reservados. ESET y NOD32 son marcas registradas de ESET. Otros nombres y marcas son marcas registradas de sus respectivas empresas.

 

Entradas populares de este blog

GRUPO DANEC S.A FUE RECONOCIDO A NIVEL INTERNACIONAL POR PRODUCIR ACEITE DE PALMA SUTENTABLE

Ingeniero Juan Carlos Quevedo, Gerente Grupo Danec; Ing Fernando Naranjo, Director De RSPO para América Latina y El Caribe; Edward Berg, Gerente General Suplente de Grupo Danec y  Patricio Carrasco, Gerente de Proyectos Agrícolas de Grupo Danec Grupo Danec S.A, obtuvo el reconocimiento mundial en referencia a las mejores prácticas sobre el cultivo sostenible de aceite de palma, este reconocimiento fue dado por la Mesa Redonda de Aceite de Palma Sostenible en sus siglas es (RSPO). RSPO es una asociación sin ánimo de lucro que reúne a los diversos actores en torno al cultivo de palma, es a la vez reconocida, a nivel internacional, en materia de sostenibilidad, para los sectores que producen Palma a nivel mundial.  Las unidades de manejo de Grupo Danec S.A certificadas suman un total de 30.221 hectáreas, dentro de las cuales la empresa tiene 24.563 hectáreas de palma certificada, RSPO y 4.907 hectáreas en bosque, de alto valor de conservación,...

La transformación de la IA es un viaje, no un destino

  Por Andrea Cavallari, Directora Sr. de Prácticas de Servicios para Latinoamérica en Red Hat La rápida evolución de la inteligencia artificial, el uso cada vez más amplio de chatbots y la creciente automatización de tareas han provocado una rápida transformación del mercado laboral. Esto es un panorama que genera sentimientos encontrados: mientras algunas empresas y profesionales buscan aprovechar esta tendencia positiva creando nuevos modelos de negocio, productos y servicios basados ​​en IA, otros se ven paralizados por el miedo, preguntándose si sus trabajos y organizaciones podrán sobrevivir a la nueva era. El complejo escenario, sin embargo, parece un poco más optimista en América Latina. Un estudio reciente del Thomson Reuters Institute descubrió que el 56% de los encuestados en la región todavía expresan entusiasmo por el futuro de la inteligencia artificial, especialmente la IA generativa, en sus industrias, una cifra que supera significativamente el 27% de los encues...

La Certificación Carbono Neutro, un compromiso con el ambiente

UnnoMotors en líder en el sector no solo por su capacidad de ensamblaje de motos sino por su filosofía alineada a la preservación del planeta UnnoMotors es la primera empresa ecuatoriana del sector automotor que se compromete con la conservación del ambiente.   Esta iniciativa surge con el propósito de equilibrar el impacto ambiental que la operación de la planta de ensamblaje de motocicletas genera normalmente. Cualquier proceso de producción causa un impacto ambiental   que se ve traducido en la emisión de gases de efecto invernadero (Dióxido de Carbono CO2). Unnomotros al certificarse como una empresa Carbono Neutro establece nuevas prácticas para la reducción de estos gases y con ello neutraliza la huella ecológica de su operación. Según Fabián Zabala, presidente de UnnoMotors esta certificación surge como una iniciativa de la empresa para establecer nuevos aportes para la conservación del planeta y por una filosofía empresarial que busca el respeto a ...