Múltiples herramientas, múltiples riesgos
El desafío ético de utilizar herramientas de inteligencia artificial para dar respuestas a problemas y tareas tanto académicas como profesionales es hoy, con la masificación de estas herramientas, objeto de una intensa discusión pública en todo el mundo. Estas herramientas, genéricas como Google Cloud, Chat GPT, Chat PDF o específicas como Copy.ai (para anuncios), Jad Bio (automatización de procesos) o DALL-E2 (para crear imágenes), son capaces de generar respuestas escritas y visuales, coherentes y convincentes, de manera sorprendentemente realista, pero que pueden ser falsas y constituir plagio o usurpación de roles. Ya es conocido que la inteligencia artificial ha demostrado poder actuar como un abogado, médico u otros, por lo que muchos profesionales incluyendo los del mundo del Derecho están preocupados por este tema e investigando las ramificaciones morales y laborales que puede presentar su uso.
Su uso plantea una serie de cuestiones éticas que deben ser abordadas de manera cuidadosa y reflexiva. Porque es un hecho que la inteligencia artificial (IA) ha llegado para quedarse y su uso generalizado es difícil de controlar.
Uno de los principales dilemas éticos es la responsabilidad y la transparencia en el uso de la IA. Los programas y herramientas con uso de IA han sido programados con gran cantidad de datos y aprenden a partir de patrones, algoritmos e información que van acopiando. Esto significa que el modelo puede reflejar los sesgos inherentes a los datos de programación, como los prejuicios de género, raza o clase social. Si no se controla adecuadamente, la IA puede perpetuar y amplificar estos sesgos, lo que lleva a respuestas discriminatorias y/o injustas. Por lo tanto, es crucial que los desarrolladores y usuarios de estas herramientas sean conscientes de este problema y trabajen para mitigar cualquier sesgo no deseado.
Hay muchos problemas prácticos ya probados en el uso indiscriminado de esta herramienta, como nos demuestra el video Understanding Impacts of AI on the Legal Profession – Computer Science for Lawyers at Harvard Hay casos en que estudiantes han usado ChatGPT para conseguir respuestas fraudulentas como presentar un escrito para evitar pago de una multa vehicular. Esto abre un debate ético acerca de sí este estudiante cometió fraude al usar un escrito realizado por I.A como el suyo propio, o si se debe considerar como una evolución del uso de herramientas como el corrector ortográfico.
También hay casos como el de DoNotPay, startup tecnológica norteamericana, que desarrolló una Inteligencia Artificial que escucha los argumentos en la Corte y propone contraargumentos para que el acusado sea capaz de defenderse por su propia cuenta, aunque tuvieron que detener el proyecto debido a que la asociación de abogados de California amenazó con ir a la oficina del fiscal de distrito argumentando que estaban trabajando como abogados sin autorización.
La Inteligencia Artificial es una herramienta poderosa, pero también peligrosa
Gran poder, gran responsibilidad
Otro aspecto ético importante es el consentimiento informado. Los sistemas basados en IA pueden dar la impresión de que los usuarios están interactuando con un humano real o con una herramienta confidencial.Esto puede llevar a una falta de claridad sobre la verdadera naturaleza de la conversación o intercambio de información, que plantea preguntas sobre la privacidad y la seguridad de los datos personales, sensibles o confidenciales, compartidos durante una conversación o con un programa que actúa como base de datos y que almacena esta información para usarla, sin ningún filtro o freno. Los usuarios deben ser plenamente conscientes de que están interactuando con una inteligencia artificial, con consentimiento informado de este posible uso indiscriminado al compartir información, lo que en grandes segmentos de la población, en especial en los niños, es muy complejo.
Además, la manipulación y el engaño son cuestiones éticas que se han vuelto más prominentes con el uso de estos sistemas. Estas herramientas pueden ser utilizadas no sólo como apoyo sino para dejar de hacer una tarea o encargo, generar noticias falsas, difundir desinformación o engañar a las personas haciéndolas creer que están frente a la solución de un problema en base al conocimiento y experiencia de una persona, no en base al uso de información acumulada por una base de datos. Ya existen y son famosos casos en el que ChatGPT ha proclamado cosas falsas, como el ejemplo de estudiantes de derecho de la Universidad de Texas, cuyo profesor pasó por filtro de chat GPT sus exámenes finales, y a dos de ellos la plataforma los acusó falsamente. Esto plantea serias preocupaciones sobre la confianza en la información y la integridad de las interacciones en línea. Tal como se mostró en el video la posibilidad de Chat GPT de usar información errónea o falsa ha causado que la inteligencia artificial pueda llevar a la difamación de personas inocentes, lo que genera incluso amenazas de demandas al creador del software. Pero nada de lo expuesto realmente soluciona el problema. Sigue abierta la discusión de quién fue realmente responsable de esta situación: ¿el que hizo la pregunta, la IA o el creador de la herramienta? Es esencial, entonces, establecer mecanismos de verificación y regulación para prevenir el uso indebido de estas tecnologías y proteger a los usuarios y receptores de productos realizados con IA, de posibles manipulaciones.
Esos son sólo algunos temas generales de discusión pública en torno a los desafíos éticos de utilizar sistemas basados en IA. Es posible y probable, que cuando se llegue a acuerdo sobre lo general, las discusiones específicas se potencien y crezcan exponencialmente. Pero lo que es evidente, es que su impacto y profundidad serán enormes en el desarrollo intelectual y práctico de la educación, las disciplinas profesionales y muchos otros aspectos de la vida humana y que esta discusión es fundamental para garantizar un uso responsable y ético de estas herramientas.
La responsabilidad y transparencia, el consentimiento informado y la prevención del engaño son aspectos clave que deben abordarse de manera efectiva con normativas y leyes destinadas a controlar. Solo a través de un enfoque ético riguroso y un buen marco regulatorio, podemos aprovechar el potencial de estas tecnologías de manera responsable, evitando los posibles riesgos y promoviendo un uso beneficioso para la sociedad en general.
La Inteligencia Artificial ha causado problemas con las vidas profesionales y personales de varias personas lo que ha causado controversia acerca de su uso
La creación y el uso de la Inteligencia Artificial requiere una responsabilidad ética que debe ser bien definida, pues aunque puede ayudar a innumerables personas también tiene el potencial de causarles daño.