Hace solo unos años, la inteligencia artificial (IA) era un concepto que parecía de películas de ciencia ficción o laboratorios de alta tecnología. Hoy está en el celular que tenés en la mano, en el buscador que usás todos los días, en el correo que te llega con publicidades que parecen leerte la mente. Pasó tan rápido que casi no nos dimos cuenta.
Esta velocidad nos dejó poco tiempo para hacernos preguntas importantes: ¿qué estamos ganando con todo esto? ¿Qué estamos perdiendo? ¿Quién se beneficia y quién paga los costos? En este artículo no pretendo darte respuestas definitivas, sino darte algunas ideas para entender mejor de qué se trata y pensar juntxs cómo relacionarnos con esta tecnología de manera más consciente en nuestro cotidiano.
¿Qué es la Inteligencia Artificial (IA)?
La IA consiste en tecnologías que pueden procesar información e imitar algunas formas de pensamiento humano.
Han existido algunas formas básicas de IA desde la década de 1950. Pero en los últimos años se han producido avances enormes debido al incremento de la potencia informática y el crecimiento en la cantidad de datos disponibles en el mundo.
Los sistemas de IA aprenden y mejoran a través de la exposición a grandes cantidades de datos que sirven como material de entrenamiento. Su calidad y cantidad son cruciales para el rendimiento de la IA y le permite identificar patrones y relaciones.
Esto me hizo pensar si la cantidad de horas que pasamos en pantallas, la adicción que generan, le sirve a las empresas que desarrollan modelos de IA para obtener más información.
Lo cierto es que muchas de las principales empresas de IA (Alphabet (Google), Microsoft, Meta (Instagram y Facebook), Amazon) también son compañías que recopilan tus datos. Los datos que generamos se convierten en propiedad de la empresa. Esto incluye todo lo que hacemos y lo que registramos en internet:
- Las búsquedas que realizamos.
- Los sitios web que visitamos.
- Las compras que hacemos.
- Las publicaciones que compartimos.
- Los lugares que visitamos.
- Los videos que vemos.
Por ejemplo, Meta (empresa dueña de Instagram y Facebook) dijo en 2023 que entrenó un nuevo generador de imágenes usando 1.100 millones de fotos públicas de Facebook e Instagram.
¿Cómo aumentar la protección de tus datos para que no los utilice la IA?

- No compartir públicamente datos que no querés que se utilicen. Cambiar la configuración ahora, como por ejemplo hacer que tu cuenta de Instagram sea privada, no eliminará retroactivamente la información que antes era pública de los conjuntos de datos.
- Tener cuidado con lo que compartís con las herramientas de IA. No envíes información confidencial a chatbots.
- Revisar la configuración de los servicios y dispositivos que usás. Es posible que puedas limitar la cantidad de datos que recopila una aplicación o servicio. Revisá la configuración para opciones como desactivar los anuncios personalizados o limitar los permisos solo mientras usas una aplicación.
Impacto ambiental
El boom de la IA tiene un lado negativo cuando se trata del medio ambiente.
El número de centros de datos ha aumentado de 500.000 en 2012 a 8 MILLONES en la actualidad y este es un valor que aseguran que seguirá creciendo. Esto genera cada vez más residuos eléctricos y electrónicos que terminan contaminando.
Los centros de datos para IA son instalaciones que tienen cientos, o incluso miles, de computadoras y servidores, que recopilan, procesan y transmiten los datos.
Necesitan componentes electrónicos para proporcionar la capacidad de procesamiento, electricidad y agua para refrigerar las máquinas. Hasta el momento hay poco debate sobre cómo satisfacer estas enormes demandas de energía y agua.
La generación de energía que requieren los centros de datos, libera gases de efecto invernadero que siguen calentando el planeta.

Para visualizar la magnitud de consumo de estos centros de datos, te comparto estas comparaciones:
- A nivel mundial, su construcción y funcionamiento, consumen aproximadamente la misma cantidad de electricidad que Francia o Alemania.
- En cuatro años, es probable que representen una huella ambiental de emisiones globales del tamaño de Japón.
- Una pregunta realizada en una conversación con ChatGPT consume 10 veces la electricidad de una búsqueda de Google (según la Agencia Internacional de la Energía (AIE)).
Imaginate: a nivel mundial, la infraestructura relacionada con la IA pronto podría consumir seis veces más agua que un país de 6 millones de habitantes (por ejemplo, sería equivalente a toda la población de El Salvador). Esto representa un grave problema teniendo en cuenta que una cuarta parte (el 25%) de la humanidad no tiene acceso a agua potable.
Por otro lado, para funcionar necesitan minerales críticos que, en general, se extraen de manera poco sustentable.
Impacto social
Trabajo en condiciones precarizadas:
Milagros Miceli, reconocida entre las 100 personas más influyentes del mundo IA, creó el proyecto Data Workers’ Inquiry, donde trabajadores del sector cuentan sus condiciones laborales.
A través de su trabajo, se pudo confirmar que las IA no son tan automáticas como se cree. Funcionan con cálculos sobre extensas bases de datos y esas bases hay que arreglarlas y probarlas. Más de 400 millones de personas en el mundo alimentan, moderan y corrigen la IA. Revisan discursos de odio, violencia sexual y racismo por sueldos miserables y contratos precarios. El daño psicológico y la explotación son parte del sistema.
Y también podemos confirmar que la IA es un gran monopolio: se concentra el poder en pocas empresas que desarrollan esta tecnología.
Generación de fake news:
La IA hace que sea más fácil que nunca fabricar mentiras convincentes. Los llamados deepfakes (videos, audios o imágenes generados o manipulados con IA) permiten poner palabras en boca de cualquier persona con un realismo que hace muy difícil distinguir lo verdadero de lo falso.
En Argentina ya tenemos ejemplos concretos. Durante la campaña electoral de 2023 circuló un video manipulado con IA del expresidente Mauricio Macri que generó confusión y debate sobre su autenticidad. También la periodista y conductora Julia Mengolini fue víctima de un deepfake de audio en el que supuestamente se la escuchaba decir cosas que nunca dijo, y que se viralizó en redes sociales antes de que pudiera desmentirlo.
Lo más preocupante no es solo que estos contenidos existan, sino la velocidad a la que se propagan y el daño que generan antes de que llegue la aclaración.
Generación de imágenes sin consentimiento:
En febrero de 2026 en solo 11 días, los usuarios de Grok (IA integrada en la red social X, ex Twitter) generaron tres millones de imágenes sexualizadas, una media de 190 por minuto.
Entre ellas, se incluyeron más de 23.000 imágenes de menores. Esta producción masiva se produjo tras la puesta en marcha de una nueva funcionalidad de Grok, que permitía desnudar a personas con un solo clic, con la orden "ponela en bikini" o "sacale la ropa".
El caso de Grok no es un caso aislado. La generación de imágenes sexuales sin consentimiento es uno de los usos más extendidos y dañinos de la IA generativa. Las víctimas son en su mayoría mujeres y, en muchos casos, menores de edad.
En 2024 el caso de la cantante Taylor Swift sacudió al mundo cuando miles de imágenes sexuales generadas con IA se viralizaron en X antes de que la plataforma pudiera retirarlas. Una de las publicaciones llegó a tener 45 millones de visualizaciones antes de que se suspendiera la cuenta 17 horas más tarde por incumplir la prohibición de “publicar imágenes de desnudez no consensuada”. Este caso visibilizó un problema que les pasa a mujeres anónimas todos los días, sin la visibilidad ni los recursos legales que tiene una figura de ese nivel.
En muchos países todavía no existe legislación específica que penalice este tipo de contenido, lo que deja a las víctimas sin herramientas para defenderse. Argentina avanza lentamente en este sentido y el vacío legal sigue siendo un problema real.
Impacto psicológico:
En una entrevista reciente, la cineasta argentina Lucrecia Martel, mencionó el peligro de que las personas que “hablan con la IA” pierden de vista que están conversando solas ante una empresa (la que desarrolla y alimenta con datos cada modelo de IA).
Ante algunas declaraciones de influencers que comentaron que usaban ChatGPT como “psicólogo”, médicos psiquiatras advirtieron que están utilizando un dispositivo que no tiene ni conciencia ni emociones, que no sabe de la experiencia interpersonal, del encuentro humano y de lo que está en juego. Por lo tanto, carece de lo que hace al registro profesional de lo que le pasa a un paciente: la escucha activa, la contención, el manejo de los tiempos, la lectura del lenguaje no verbal.
La IA está diseñada para ser agradable, para no contradecir, para dar siempre una respuesta reconfortante. Eso puede generar una dependencia emocional real y, al mismo tiempo, empobrecer la capacidad de tolerar el conflicto, la ambigüedad y la incomodidad que son parte inevitable de las relaciones humanas.
La IA también ha transformado la forma en que nos comunicamos, consumimos información y nos relacionamos entre nosotros. Los asistentes virtuales, los chatbots y las plataformas de recomendación, como las de música o contenido audiovisual, hacen que la interacción con la tecnología sea cada vez más personalizada. Sin embargo, esto también ha dado lugar a la creación de "burbujas informativas", donde nos vemos más expuestxs a información que refuerza nuestras creencias preexistentes, lo que puede profundizar la polarización social y dificultar el diálogo constructivo.
No todos los usos de la IA son negativos
La gran ventaja de la IA es que puede detectar patrones en los datos, como similitudes y anomalías, y utilizar este conocimiento histórico para predecir futuros resultados con precisión.
Esta tecnología se está utilizando para mapear el dragado destructivo de arena y monitorear emisiones de metano, un potente gas de efecto invernadero.
Eso podría hacer que la IA sea invaluable para monitorear el medio ambiente y ayudar a gobiernos, empresas y personas a tomar decisiones más amigables con el planeta. También puede mejorar la eficiencia Por ejemplo, se está utilizando la IA para detectar cuándo las instalaciones de petróleo y gas sufren fugas de metano.
En el ámbito de la salud, la IA ha mostrado un potencial al permitir diagnósticos más rápidos y precisos, así como el desarrollo de tratamientos personalizados. Algoritmos de aprendizaje automático pueden analizar grandes volúmenes de datos para identificar patrones que serían imposibles de detectar por humanos, lo que facilita la prevención de enfermedades y mejora la atención al paciente. Sin embargo, el uso de IA en la medicina también plantea preocupaciones éticas, como la privacidad de los datos y el riesgo de deshumanizar la atención sanitaria.
En el ámbito jurídico, se está usando para analizar grandes cantidades de documentos legales y detectar irregularidades en contratos, algo que antes requería semanas de trabajo humano. En educación, permite personalizar el aprendizaje para estudiantes con distintas necesidades, incluyendo personas con discapacidades que antes tenían menos acceso a recursos adaptados. En el campo de la accesibilidad, herramientas basadas en IA permiten que personas ciegas "vean" imágenes a través de descripciones de voz, o que personas con dificultades del habla puedan comunicarse de manera más fluida.
También está cambiando la forma en que se investigan desastres naturales: modelos de IA pueden predecir con mayor anticipación la trayectoria de huracanes, detectar focos de incendios forestales en tiempo real y anticipar inundaciones, dando más tiempo para evacuar y salvar vidas.
Ética de la inteligencia artificial

La IA tiene un enorme potencial para mejorar la vida cotidiana: Permite hacer tareas más rápido y con menos errores y optimiza la gestión de recursos.
Sin embargo, estos cambios también plantean profundos dilemas éticos, que surgen del potencial que tienen los sistemas basados en IA para reproducir prejuicios, contribuir a la degradación del clima y amenazar los derechos humanos, entre otros. Estos riesgos se suman a las desigualdades ya existentes, perjudicando aún más a grupos históricamente marginados.
Varios estudios advierten que la IA puede profundizar las desigualdades que ya existen: genera exclusión digital, reproduce discriminaciones de género y raza a través de algoritmos sesgados, y tiene un impacto negativo en el empleo y las condiciones laborales. A esto se suma la pérdida progresiva de control humano sobre decisiones automatizadas y una dependencia tecnológica cada vez mayor.
En el ámbito educativo, genera riesgos concretos, como la dificultad para distinguir contenido generado por IA, el riesgo de perder habilidades de pensamiento crítico y la brecha digital, que deja afuera a quienes no tienen acceso a la tecnología.
Todo esto lleva a una conclusión: la IA no es ni buena ni mala por sí misma, sino que depende de cómo la usamos y cómo se regule. Investigadores y organismos internacionales coinciden en que es urgente desarrollarla con criterios éticos, garantizar transparencia en los algoritmos y asegurar que sus beneficios lleguen a todos, no solo a unos pocos.
Experiencia personal
Cuando en 2022, ChatGPT (de la empresa OpenAi) fue lanzado para todo el mundo, en pocos días alcanzó millones de usuarios, como toda tendencia. En un principio (o quizá todavía) era algo muy desconocido, tenía muchas preguntas de cómo funcionaba, así que mi uso fue nulo. Un poco de negación mezclada con la sensación de “¿cómo puede estar pasando esto?”.
Ese chat sencillo y “gratuito” llegó para quedarse, y para iniciar una “Re-evolución” en nuestro cotidiano.
Con algunos meses / años más, me animé a ir probando poco a poco la herramienta, buscando formas de poder implementar sus utilidades, siempre siendo consciente al momento de usarla. En el sentido de: releer, verificar y analizar la información que me está brindando. Siempre recibir esa información como una base, para luego aplicar mi criterio, personal, humano y único para interpretarlo y utilizarlo.
Por supuesto, a la hora de utilizarlo, me hago las preguntas:
- ¿Es necesario esto?
- ¿Es la mejor opción?
- ¿Lo puedo googlear?
- ¿Lo puedo resolver de otra manera simple?
Tras mucha reflexión, hoy me alineo con la idea de usarla de manera ética y responsable.
Por ejemplo, no me sumaría a tendencias que proponen generar imágenes solo por entretenimiento, como la que se hizo muy popular hace poco tiempo de generar imágenes al estilo del Estudio Ghibli y compartirlas en redes sociales.
Es como el plástico: es útil para algunos casos por sus características (en este artículo te cuento más sobre esto), pero los plásticos de un solo uso en casi cualquier producto son un problema grave que me esfuerzo en evitar cotidianamente.
Lo importante es que reflexionemos: ¿Cómo y para qué la usamos?
Usarla de manera responsable
Gerry Garbulsky un físico y director de TED en Español propone hacerse estas preguntas antes de usar la IA, para que sea una herramienta que nos potencie y no usarla indiscriminadamente:
- ¿Qué cosas no quiero delegar en la IA?
- ¿Qué me queda si pido ayuda a la IA en todo?
- ¿Puedo ser más creativo con la IA?
- ¿Cómo converso con personas vs. con la IA?
- ¿Qué puedo hacer con la IA que antes creía imposible para mí?
- ¿Cómo atraviesan las emociones mi relación con la IA?
- ¿Hay cosas que la IA nunca va a poder hacer?
Para qué usar la IA y para qué no es necesaria (ni recomendable)
Como el uso de IA es algo bastante reciente para nosotrxs como público general, creo que esto es algo que cada unx debería responderse e informarse y vamos a ir teniendo consensos con el tiempo, pero acá van algunos ejemplos cotidianos que estuve recopilando o pensando:
Dónde conviene usarla:
-
Para resumir textos largos (te sugiero darle una leída rápida de todas maneras al texto original para asegurarte de que la IA no está inventando, porque muchas veces lo hace). También buscar los datos más específicos en el texto original (resultados de investigaciones, porcentajes, citas textuales, es decir: cualquier dato que necesites comprobar que sea efectivamente así).
-
Para generar ideas cuando estás trabado o en blanco, como un puntapié inicial.
-
Dar orden a un texto: Organizar ideas que tengas o armar un índice de un texto.
-
Para corregir la ortografía y la redacción de un texto que ya escribiste vos.
-
Para traducir contenido con más contexto y naturalidad que un traductor tradicional (como el Google Translate).
-
Para aprender algo nuevo pidiéndole que te lo explique con ejemplos simples y a tu ritmo.
-
Para tareas repetitivas o administrativas que consumen tiempo sin agregar valor real.
Dónde evitar la IA (o tener mucho cuidado y criterio):
- No conviene usarla para búsquedas sencillas que puede resolver Google, mejor usar el buscador tradicional y ver la fuente de la que viene la información. Google ahora tiene la IA integrada en sus búsquedas, pero podés evitarla colocando "-ia" al final para hacer una búsqueda más tradicional. Ejemplo: "que es el festival shircular -ia"
Me encanta este Reel donde lo muestran con humor y queda clarísimo: www.instagram.com/reels/DU4f2sODRqG
- No la uses para verificar hechos o noticias: la IA puede equivocarse, inventar información o quedar desactualizada, siempre conviene chequear la fuente original (páginas oficiales o sitios de noticias en los que confíes).
- No usarla en conversaciones difíciles o emocionalmente importantes: escribirle a alguien con texto generado por IA le saca autenticidad a lo que querés decir.
- No la consultes para decisiones morales o éticas: si tenés que decidir algo que involucra valores o principios, esa es una decisión humana. La IA puede darte información, pero no debería ser quien defina qué está bien o mal en tu vida.
- Que no reemplace el criterio propio: usarla como punto de partida está bien, pero la última palabra siempre tiene que ser tuya.
¿Cómo estamos usando la IA?
La IA ya es parte de nuestra vida. La pregunta es cómo vamos a usarla.
Te propongo que, la próxima vez que estés por abrir ChatGPT, Gemini o cualquier otra herramienta de IA, te detengas un segundo y te preguntes: ¿para qué la estoy usando?
No hay respuestas universales. Lo que está bien para unx puede no estarlo para otrx. Pero hay algo que vale la pena construir entre todxs: criterios compartidos, conversaciones honestas y la voluntad de no dejar que otros (empresas, algoritmos, intereses económico) decidan por nosotros cómo vivir con esta tecnología.
La IA puede ser una herramienta genial. Pero las herramientas digitales no tienen valores ni criterio para reemplazar nuestra humanidad.
Fuentes:
Cómo se utiliza sin consentimiento la imagen de Taylor Swift manipulada o creada con IA: contenido sexual, campañas políticas a favor de Trump y escenarios violentos. (2024, septiembre 11). Maldita.es. https://maldita.es/malditatecnologia/20240911/imagen-taylor-swift-manipulada-creada-ia-sexual-politica/
El lado oculto de la inteligencia artificial. (2025, septiembre 30). Faro Digital. https://farodigital.org/el-lado-oculto-de-la-inteligencia-artificial/
Ética de la inteligencia artificial. (s. f.). Unesco.org. Recuperado 11 de marzo de 2026, de https://www.unesco.org/es/artificial-intelligence/recommendation-ethics
Flinn, L. (2024, enero 25). AI, data privacy and you. Information Technology Services. https://its.unc.edu/2024/01/25/ai-data-privacy-and-you/
Formatjé, N. B. (2026, febrero 25). IA y explotación sexual: el caso Grok y los límites legales. Universitat Oberta de Catalunya. https://www.uoc.edu/es/news/2026/ia-explotacion-sexual-grok-x-uoc
Garbulsky, G. (2026, enero 12). ¿Abrazar la IA o potenciar nuestra humanidad? https://www.instagram.com/garbulsky. https://www.instagram.com/p/DTaUi1iAEq9/?img_index=1
GELATINA [@SomosGelatina]. (2026, marzo 3). LUCRECIA MARTEL: «No hay que tenerle miedo a nuestro tiempo» | Con Pedro ROSEMBLAT [Video]. Youtube. https://www.youtube.com/watch?v=P5T9t3XjPDU
Jonker, A., & Gomstyn, A. (2025, noviembre 26). ¿Qué es un centro de datos de IA? Ibm.com. https://www.ibm.com/mx-es/think/topics/ai-data-center
La IA plantea problemas ambientales. Esto es lo que el mundo puede hacer al respecto. (2025, noviembre 13). Unep.org. https://www.unep.org/es/noticias-y-reportajes/reportajes/la-ia-plantea-problemas-ambientales-esto-es-lo-que-el-mundo-puede
Maier, E. (2025, marzo 30). ChatGPT y salud mental: qué se sabe sobre el uso de la IA en reemplazo de un psicólogo y qué riesgos plantea. Chequeado. https://chequeado.com/el-explicador/chatgpt-y-salud-mental-que-se-sabe-sobre-el-uso-de-la-ia-en-reemplazo-de-un-psicologo-y-que-riesgos-plantea/
O'Leary, A. (2025, mayo 1). Data centres: the threats from soaring demand. Opportunity Green. https://opportunitygreen.org/data-centres/reports/data-centres-threaten-energy-systems-climate-goals/
¿Qué es la inteligencia artificial o IA? (s. f.). Google Cloud. Recuperado 11 de marzo de 2026, de https://cloud.google.com/learn/what-is-artificial-intelligence?hl=es-419
Universidad de Alicante. (2025, marzo 24). El impacto de la IA en la sociedad. Biblioteca Universitaria. https://biblioteca.ua.es/es/noticias/2025/el-impacto-de-la-ia-en-la-sociedad.html
Villagomez Palacios, A. H. (2025). El impacto de la Inteligencia Artificial en la Sociedad: Una Revisión Sistemática de su Influencia en Ámbitos Sociales, Económicos y Tecnológicos. Ciencia Latina Revista Científica Multidisciplinar, 9(1), 8150-8172. https://doi.org/10.37811/cl_rcm.v9i1.16468

