top of page
Buscar

La importancia del uso correcto de la inteligencia artificial (IA): garantizar la eficacia y evitar errores

  • Foto del escritor: Nancy Kutsup
    Nancy Kutsup
  • 30 sept 2024
  • 8 Min. de lectura

Una imagen generada por IA que muestra un grupo de diversos estudiantes de escuelas primarias usando computadoras en el aula.
La imagen de arriba es generada por IA usando Adobe Firefly. El mensaje que se utilizó es "imagen realista generada por IA de un grupo diverso de estudiantes de primaria usando IA".

El 12 de septiembre de 2024, Oprah Winfrey emitió un especial de televisión titulado AI and the Future of Us (La inteligencia artificial y nuestro futuro) . Se analizaron las posibles ventajas y desventajas. Es imperativo que sigamos de cerca su evolución y alentemos a nuestros legisladores a hacer todo lo posible para protegernos de los impactos negativos de la IA. Se trata de la tecnología de más rápido crecimiento que deja poco tiempo para el análisis.


La inteligencia artificial (IA) tiene el potencial de revolucionar diversos campos, desde la educación hasta la atención médica y las artes. Sin embargo, su eficacia depende de cómo se utilice, y aún requiere una cuidadosa supervisión humana para evitar errores importantes. A medida que la IA se integra cada vez más en nuestra vida diaria, es fundamental comprender sus limitaciones, especialmente cuando se trata de generar información e imágenes. Este artículo explora la importancia de usar la IA correctamente para garantizar que logre sus objetivos previstos, centrándose en la necesidad de la participación humana en la verificación de datos, los riesgos asociados con las imágenes generadas por IA y la necesidad de una política clara sobre el uso de la IA en la educación.


 

La necesidad de la supervisión humana


Los sistemas de IA, en particular los basados en el aprendizaje automático, son herramientas poderosas, pero no son infalibles. Estos sistemas aprenden de grandes conjuntos de datos y sus resultados son tan confiables como los datos con los que se los entrena. Los sesgos inherentes a los datos de entrenamiento pueden llevar a resultados sesgados o injustos. Por ejemplo, si un modelo de IA se entrena con datos que reflejan sesgos sociales, puede perpetuar esos sesgos en sus decisiones, lo que lleva a un trato injusto a ciertos grupos.


Una de las preocupaciones más acuciantes en relación con la IA es su tendencia a producir lo que se conoce como "alucinaciones", casos en los que la IA genera información que parece plausible pero que es completamente falsa o engañosa. Los modelos de IA están diseñados para predecir el resultado más probable en función de sus datos de entrenamiento, pero no comprenden inherentemente el contexto, los matices ni la precisión fáctica. Esto es particularmente preocupante en contextos educativos, donde la precisión es primordial. Por ejemplo, en un entorno educativo, una IA podría generar una fecha histórica o un hecho científico aparentemente preciso que es completamente inventado.


Sin la supervisión humana, estas imprecisiones pueden propagar información errónea, engañar a estudiantes, educadores e incluso administradores, lo que puede conducir a decisiones perjudiciales. Por eso, la verificación de datos sigue siendo una responsabilidad humana fundamental cuando se utilizan herramientas de IA. Los administradores, educadores, estudiantes e incluso los creadores de contenido deben verificar la información producida por la IA con fuentes confiables para garantizar la precisión y evitar la difusión de información falsa.


 

Los riesgos de las imágenes generadas por IA


La capacidad de la IA para crear imágenes a partir de descripciones textuales es impresionante y esas imágenes pueden ser increíblemente realistas (como se ve arriba), pero también conllevan riesgos significativos, en particular cuando se usan de manera incorrecta. Las imágenes generadas por IA pueden desdibujar fácilmente la línea entre realidad y ficción, lo que dificulta distinguir fotos genuinas de creaciones de IA, y cuando se usan de manera inapropiada, la IA puede crear imágenes que distorsionan la realidad o perpetúan estereotipos dañinos. Por ejemplo, la IA se ha utilizado para crear deepfakes: imágenes o videos hiperrealistas pero completamente inventados que se pueden usar para manipular la percepción pública, difundir información errónea o incluso chantajear a personas.


En el contexto de la educación o los medios de comunicación, las imágenes generadas por IA deben utilizarse con precaución. El uso inapropiado de imágenes generadas por IA puede socavar la credibilidad de los materiales didácticos y dar lugar a la difusión de información incorrecta. Por ejemplo, una imagen de un acontecimiento histórico creada por IA podría alterar involuntariamente (o intencionadamente) la apariencia del acontecimiento, lo que daría lugar a una representación errónea de la historia. Las imágenes generadas por IA que se utilicen en clases de historia o en ilustraciones científicas deben ser precisas y veraces. De lo contrario, corren el riesgo de distorsionar la comprensión de los estudiantes de conceptos fundamentales. Del mismo modo, las imágenes generadas por IA que se utilicen en publicidad o en las redes sociales pueden contribuir a la creación de estándares de belleza poco realistas o a la creación de representaciones culturales erróneas.


Para mitigar estos riesgos, es esencial establecer directrices y normas éticas para el uso de la IA en la generación de imágenes. Esto incluye etiquetar claramente las imágenes generadas por IA, garantizar que no induzcan a error ni desinforman y utilizarlas de una manera que respete la dignidad y la privacidad de las personas.


 

Desarrollo de una política para el uso de IA en la educación


Dados los posibles beneficios y riesgos asociados a la IA, es fundamental desarrollar e implementar una política integral para su uso en entornos educativos. A continuación se presentan los componentes clave de dicha política:


Plagio y violación de derechos de autor:

  • Los educadores y estudiantes deben asegurarse de que el contenido generado por IA no infrinja los derechos de autor existentes. Las herramientas de IA deben utilizarse para ayudar en el aprendizaje y la enseñanza, no para plagiar o replicar el trabajo de otra persona sin la atribución adecuada.

  • Las instituciones deberían emplear herramientas de detección de plagio que puedan analizar el contenido generado por IA para garantizar la originalidad y el cumplimiento de los estándares académicos.

Uso ético y mitigación de sesgos:

Precisión y verificación de hechos:

Transparencia y rendición de cuentas:

Creación responsable de imágenes con IA:


Ejemplo de política de inteligencia artificial

Ejemplo de una política de inteligencia artificial: "Los estudiantes son responsables del reconocimiento completo, preciso, específico y veraz del trabajo de otros, incluidas, entre otras, sus palabras, ideas, frases, oraciones o datos, que incluyen fuentes escritas o no escritas. No se tolerará en este curso nada que se considere plagio o que infrinja los derechos de autor. Se permite el uso de herramientas de inteligencia artificial para ayudar con cualquier tarea escrita, pero no se permitirá para proyectos, cuestionarios o pruebas. Es esencial que utilices estas herramientas como "ayudas" y no completes la tarea para su entrega. Como estudiante, debes comprender cómo funcionan tus programas y ser capaz de explicar tu programa completamente al instructor cuando te lo solicite".
 

Conclusión


La IA tiene el potencial de mejorar enormemente la educación al brindar experiencias de aprendizaje personalizadas, automatizar tareas rutinarias y ofrecer nuevas formas de involucrar a los estudiantes. Sin embargo, su eficacia depende de un uso responsable, una supervisión cuidadosa y el cumplimiento de estándares éticos. Al implementar políticas integrales y garantizar que el contenido generado por IA sea preciso, justo y transparente, los educadores pueden aprovechar el poder de la IA para enriquecer la experiencia de aprendizaje y minimizar los riesgos potenciales.


 

Recursos:


Para comprender e implementar mejor el uso responsable de la IA en la educación, los siguientes recursos son invaluables:


  1. OpenAI desarrolla IA beneficiosa de forma segura y responsable

  2. Directrices éticas de la inteligencia artificial de la UNESCO

  3. Sesgo en la IA: comprensión y mitigación

  4. Herramientas y recursos de verificación de datos

    • Herramientas para ayudar a verificar la precisión del contenido generado por IA.

      • RAND | Herramientas que combaten la desinformación en línea

        • Herramienta de verificación de datos en video de Duke

          • La herramienta Duke Videofactchecking Tool es una extensión del navegador que permite verificar en directo la información de la televisión. Los desarrolladores la evaluaron mediante experimentos con usuarios. En general, a los usuarios les gustó que esta herramienta generara ventanas emergentes, aunque no estaban de acuerdo en si preferían obtener una "calificación" o simplemente la información objetiva.

        • FactCheck.org

          • Factcheck.org es un sitio web afiliado al Centro de Políticas Públicas Annenburg de la Universidad de Pensilvania que realiza comprobaciones de datos. El objetivo del sitio web es "monitorear la precisión fáctica" presente en la política estadounidense. Se centra en las declaraciones realizadas por políticos estadounidenses. El grupo cuenta con varios periodistas que investigan el material.

        • Fotoforense

          • HackerFactor es una herramienta de verificación basada en la web que proporciona información sobre la fuente, la marca de tiempo, la creación y la información de modificación de las imágenes.

        • Hecho político

          • Sitio web ganador del premio Pulitzer dirigido por editores y periodistas del periódico Tampa Bay Times (Florida). "PolitiFact es un sitio web de verificación de datos que evalúa la precisión de las afirmaciones de los funcionarios electos y otras personas que se expresan en la política estadounidense... Los sitios estatales de PolitiFact están dirigidos por organizaciones de noticias que se han asociado con el Times". Lea sobre sus principios en 'Acerca de nosotros'.

  5. Herramientas de detección de plagio

  6. Información y pautas sobre derechos de autor

  7. Recursos de IA en la educación

  8. Ética de la generación de imágenes con IA

  9. Políticas educativas sobre el uso de la IA

  10. El pensamiento crítico en la era de la IA

  11. Biblioteca de artículos sobre inteligencia artificial de Edutopia

 
 
bottom of page