En la conferencia magistral “¿Es posible desarrollar una IA responsable y confiable hoy en día?”, el doctor Ulises Cortés, académico y miembro del Observatorio de Ética en Inteligencia Artificial de la Universidad Politécnica de Catalunya, des- tacó que existe la necesidad de que los sistemas basados en IA sean utilizados de forma apropiada, pues en malas manos pueden tener efectos no deseados. Recalcó que los científicos tienen la responsabilidad de cuidar su información y saber con quién la comparten. “Tenemos que contribuir para construir una inteligencia artificial responsable. Hay que actuar de tal manera que los efectos de tu acción sean compatibles con la permanencia de una vida humana auténtica. Hay que retomar lo que decía Aristóteles: actúa de tal manera que na- die se vea afectado ni en el presente ni en el pasado ni en el futuro. En tanto que Kant habló del categórico: somos responsables, porque somos racionales”.
El especialista advirtió que hay dos tipos de IA: la que se encuentra en el espacio virtual y la que convive con nosotros de manera cotidiana. Para ambas, se deben considerar aspectos como evitar sesgos, el mal uso y, por otro lado, contar con la educación, regulación y certificación necesarias para reducir los riesgos del uso de la tecnología. No existe, recalcó, un algoritmo que corrija efectos colaterales, sesgos, errores, ni para prevenir el mal uso de las aplicaciones.
Como sociedad, el problema es que confiamos ciegamente en los resultados de una máquina y se nos olvida que están hechas, todavía, por los humanos y se puede decir que los valores que detentan son de las compañías del norte global y de China.
Ulises Cortés explicó que lo deseable es que los sistemas sean éticamente aceptables, legalmente permitidos, así como social y culturalmente aceptados, con perspectiva de género. “Una IA responsable es una construcción social; más que preocuparnos por las soluciones técnicas, las soluciones deben ser sociales, por ello se trata de convencer a los jóvenes de hacer ciencia humanística. Cuando diseñes un sistema pregunta: ¿Quién se verá afectado por el uso de esta máquina? ¿Cómo estamos entrenando el algoritmo? ¿Los datos de entrenamiento se asemejan al contexto de uso?
En cuanto a los aspectos pertinentes de estas tecnologías, advirtió que para hacer IA se tiene que realizar mucha estadística, pero también se necesitan sistemas de rendición de cuentas, de responsabilidad y de transparencia; se deben tomar en cuenta leyes y regulaciones, de igual manera su desarrollo debe ser socialmente participativo. Los principios de ingeniería implican un ciclo que consideran analizar, sintetizar, evaluar y repetir, pero también un informe donde se debe identificar, motivar y documentar. Por todo esto, aseguró, es crucial que los estados regulen los esfuerzos para evitar la fragmentación de las políticas de gobernanza.
Referente al desarrollo de las tecnologías, explicó que la salud de la IA en México no es muy buena. Un indicador es que el pionero de la IA en este país fue el doctor José Negrete, quien en 1983 dictó la conferencia ¿Por qué investigar la IA en México? en el Instituto Politécnico Nacional y fundó la Sociedad Mexicana de Inteligencia Artificial (SMIA) en 1983, que hasta 2024 cuenta sólo con 693 afiliados. “En Cataluña, que somos 7 millones de personas, tenemos 500 afiliados a la sociedad de IA, y tan sólo en mi campus hay 2000 profesores trabajando en tecnologías. El problema es que los demás mexicanos que estudian IA están en Europa, porque no se ha podido retener el talento en el país”.
Por último, subrayó que los sistemas basados en IA son artefactos construidos por nosotros para nuestros propósitos. “Nosotros, como individuos o sociedades, establecemos los límites de su uso o aplicación”.