top of page
Buscar
  • Foto del escritorDra. Andrea Stechina

INTELIGENCIA ARTIFICIAL GENERATIVA

Las redes neuronales generativas son un tipo de modelo de aprendizaje profundo que se utilizan para generar datos nuevos y originales que se asemejen a un conjunto de datos de entrenamiento dado. Pueden parecer auténticos, aunque nunca se hayan visto antes.

La IA generativa y los datos sintéticos provocan dos grandes fenómenos. Por una parte, la distorsión y contaminación de los datos e información que se produjeron en el pasado. Por otra parte, se pueden generar datos, información o conocimiento que nunca existieron pero complementan o coexisten con aquellos otros. El dato sintético también se integra con la realidad percibida por las personas.


Los reguladores de todo el mundo se están enfocando en cómo mitigar el daño de la IA.


Según el posicionamiento de OdiseIA al respecto, los riesgos más relevantes de la IA Generativa son:


  1. Uso para su entrenamiento de datos de carácter personal así como obras protegidas por derechos de propiedad intelectual (por ejemplo imágenes).

  2. Posibilidad de que en ciertas situaciones las soluciones de Inteligencia Artificial Generativa estén afectadas por sesgos discriminatorios o que adopten discursos de odio, aunque las herramientas existentes como ChatGPT intenten adoptar ya medidas para evitarlo.

  3. Usos maliciosos como la creación de noticias falsas o la creación de imágenes vejatorias o perjudiciales para personajes reales abundando las de contenido sexual. Dentro de estos usos maliciosos cabe incluir también la modalidad del cibercrimen como el uso de la inteligencia artificial generativa para la creación de códigos maliciosos, facilitar los ataques de phishing, robo de identidad, automatización de procesos de hackeo, etc.

  4. Potencial violación a las normas de propiedad Intelectual, ante un uso indiscriminado de obras protegidas para el entrenamiento del sistema, sin la correspondiente licencia o solicitud previa de permiso a las personas responsables de su creación o autoría. Adicionalmente y en relación con lo anterior, dificultades para la atribución de autoría de los contenidos generados por inteligencia artificial y también debate sobre el concepto de propiedad intelectual aplicado a las obras creadas con inteligencia artificial generativa.

  5. Falta de un esquema claro de atribución de responsabilidad y rendición de cuentas ante la creación de contenidos erróneos o perjudiciales de alguna forma. Esta situación se complica aún más en caso de existencia de cadenas cliente-proveedor como sucede con el uso de APIs (‘Application Programming Interface’).

  6. Empleo de información creada por la inteligencia artificial generativa, y por tanto no completamente confiable, para la toma de decisiones críticas.

  7. Ausencia de explicabilidad de las respuestas que se generan.

  8. Falta de conciencia por parte de las personas usuarias de que están utilizando contenidos que, aunque en general útiles, no son completamente confiables.

  9. Eventualmente, creación de excesiva dependencia de las herramientas generativas y pérdida de autonomía y pensamiento crítico.

  10. Posible creación de una nueva forma de brecha digital por el acceso limitado de la mayoría de la población y de las PYMes a estas herramientas.

  11. Concentración del conocimiento y control de la inteligencia artificial generativa en manos de muy pocas grandes empresas con el eventual riesgo de monopolio aunque con la posibilidad de ser contrapesado por la existencia de soluciones ‘open source’.

  12. Ausencia en la actualidad de mecanismos claros de auditoría y evaluación de este tipo de soluciones.

  13. Impacto medioambiental, debido a las grandes necesidades computacionales de este tipo de modelos y la consiguiente huella de carbono producida.

Recomendaciones para Empresas y Profesionales (nuestra responsabilidad!)

  • Inversión en conocimiento y aplicación de este tipo de soluciones para su propia innovación y eficiencia.

  • Por supuesto, conocimiento y observancia estricta de toda la legislación actual o futura que afecte a este tipo de soluciones.

  • Definición e implantación de mecanismos de control y gobierno bajo la filosofía de ética por diseño o responsabilidad por diseño que incluya también las soluciones generativas.

  • En línea con lo anterior, aprender a estimar el riesgo de este tipo de soluciones y a establecer mecanismos de auditoría y validación.

  • Ejecución de acciones de formación a su personal en los aspectos técnicos y de uso, pero también éticos y de protección, de este tipo de tecnologías.

  • Creación entre el personal de consciencia de que, pese a la espectacularidad y eventual coherencia de los resultados ofrecidos por la IA generativa, no son completamente fiables por lo que deben usarse con prudencia, con cierta supervisión humana y evitando emplearla en decisiones sensibles o críticas.

  • Establecer, difundir y garantizar la aplicación de sus propios protocolos internos para evitar aportar a herramientas generativas datos personales, secretos o sensibles de algún modo y que sean susceptibles de ser usados o incorporados por el algoritmo de formas no deseadas.

  • En caso de crear contenido con base en IA generativa, añadir una nota de transparencia que deje claro el origen de la obra.

  • Tomar una decisión informada y explícita sobre usar la inteligencia artificial generativa de un tercero (en la nube, como ChatGPT), o usar una versión de código abierto bajo control propio.

Ahora que podemos generar automáticamente grandes cantidades de contenido, es hora de definir criterios más claros sobre lo que es justo o está bien.


Estamos completamente de acuerdo y adherimos a las recomendaciones que plantea OdiseIA en su posicionamiento al respecto.


Queremos conocer vuestra opinión al respecto.





Fuentes:

Clase SAR - Cap IA - Dra. Andrea Stechina - Médica especialista en Diagnóstico por Imágenes

Inteligencia Artificial Generativa. Posicionamiento de OdiseIA 27/07/2023 (https://www.odiseia.org/)

2 visualizaciones0 comentarios
bottom of page