Combatir la tecnología con fuego
¿Cuál es la forma correcta de maximizar los pros y minimizar los contras? Una es que empresas y gobiernos establezcan límites. Otra es combatir la tecnología con más y mejor tecnología.
La tecnología da y la tecnología quita, como dice el refrán. Disfrutamos de las comunicaciones modernas y la infraestructura digital, pero nos preocupan los ciberataques, la pérdida de privacidad, los prejuicios, el consumo de energía y mucho más. Algunas combinaciones, como las cámaras de vigilancia y el reconocimiento facial, parecen especialmente amenazadoras y aterradoras.
¿Cuál es la forma correcta de maximizar los pros y minimizar los contras? Una táctica es que las industrias y los gobiernos establezcan límites. Otra es combatir la tecnología con más y mejor tecnología.
Límites e innovación
Establecer límites es importante. Un ejemplo es la Carta de Derechos de la IA propuesta por la Casa Blanca. Las industrias también pueden autorregularse, pero los ciberdelincuentes y otros malos actores se saltan a la torera las leyes y los acuerdos. Además, las normativas deben evitar inhibir la innovación.
La computación cuántica, la IA y otras tecno-génesis pueden conceder muchos buenos deseos, pero no hay forma práctica de devolverlos a la botella. Los innovadores seguirán inventando. En muchos casos, también encontrarán soluciones a los mismos problemas que la tecnología ha creado. Es un poco como combatir el fuego con fuego.
Inteligencia Artificial y Computación Cuántica
La ciberseguridad es un buen ejemplo. Los expertos en seguridad creen que el aprendizaje automático se está convirtiendo en un elemento fundamental de las plataformas de gestión de eventos e información de seguridad, que almacenan y analizan información sobre amenazas. Ahora que los ciberatacantes ‘explotan’ bots automatizados, las empresas pueden contrarrestarlos recurriendo al aprendizaje automático para reforzar sus defensas, identificar los ataques y responder más rápidamente que cualquier analista de seguridad humano.
La computación cuántica es un ejemplo relacionado. Se teme que, en algún momento, se utilice un ordenador cuántico tolerante a fallos para romper los criptosistemas existentes. Es una perspectiva aterradora, pero siento deciros que la carrera ha comenzado. La criptografía poscuántica se ha convertido en un tema habitual en muchas conferencias académicas. El National Institute of Standards and Technology (NIST) está creando nuevas normas y están surgiendo soluciones comerciales.
El consumo de energía también es motivo de preocupación. Por ejemplo, los requisitos computacionales de las redes neuronales profundas, omnipresentes en las tecnologías de IA actuales, son muy preocupantes desde el punto de vista del consumo de energía. Una forma de abordar las ineficiencias de los circuitos digitales es volver a imaginar y demostrar la computación como un proceso físico, como han hecho recientemente algunos físicos. Es potencialmente mucho más eficiente desde el punto de vista energético.
En cuanto a otras amenazas que plantea la IA, los reguladores están empezando a actuar. Existe la propuesta de Carta de Derechos de la IA mencionada anteriormente, así como la Ley de IA de la Unión Europea, que se espera que se convierta en ley en 2023. Dos de los cinco principios del documento estadounidense tienen que ver con la discriminación algorítmica y la privacidad de los datos. Como en otros casos, podemos abordar estas preocupaciones mediante límites y facilitadores tecnológicos.
Privacidad y parcialidad
Una forma de evitar que la IA muestre sesgos es dejar de desarrollar aplicaciones que lo hagan. En los últimos años, varias grandes empresas tecnológicas, entre ellas Meta, se han retirado del reconocimiento facial o han limitado su participación. Una sugerencia política es permitir que los consumidores se excluyan de las aplicaciones basadas en IA. Dicho esto, la exclusión voluntaria sería difícil de poner en práctica, en parte porque significaría renunciar al potencial de soluciones que, de otro modo, serían útiles y eficaces.
Cuando se despliega, la videovigilancia combinada con software de reconocimiento facial plantea cuestiones de parcialidad y privacidad. También en este caso las nuevas tecnologías ofrecen posibles soluciones como, por ejemplo, una solución que combine cifrado basado en atributos y machine learning para difuminar todas las caras en un circuito cerrado de televisión, permitiendo al mismo tiempo un control preciso de los datos visuales cifrados a los usuarios autorizados. ¿La idea? Pues podría ser proteger la intimidad de las víctimas y los transeúntes y, al mismo tiempo, ayudar a las autoridades a detener a alguien visto cometiendo un delito, siempre que se apliquen todas las medidas de protección antiprejuicios.
La cuestión más importante ahora es cómo distinguir lo real de lo falso, o cómo corregir la IA sesgada. Dada la enorme atención y el poderoso potencial (bueno y malo) que ChatGPT ha recibido últimamente, la gente se está dando cuenta de que no tenemos un método eficaz para realizar estas tareas. Ahora nos encontramos en la fase de búsqueda de tales tecnologías.
Sí, hay que reconocer que la tecnología puede generar sentimientos encontrados, tanto esperanza como miedo. Si el ‘techlash’ está creciendo, también lo hace la ansiedad. Es probable que surjan nuevas leyes y normativas, que espero estimulen y no ahoguen la innovación.
Mientras tanto, conviene recordar la naturaleza dinámica de la ciencia y la tecnología. Al trabajar en investigación básica, sé que el progreso es desigual y puede requerir horizontes temporales largos para materializarse. Pero los que resuelven problemas, por regla general, aspiran a mejorar, no a empeorar. Y las soluciones a los retos técnicos a menudo se encuentran dentro de las propias tecnologías. Apostemos porque sea para bien. Apostemos porque nos hará mejores.