Hugo Scolnik es referente del Departamento de Computación (DC) y de la computación nacional e internacional, siendo el fundador del DC en 1985 y consolidando el departamento a través de la formación de jóvenes investigadores. Fue director del DC en distintos períodos (1985-1989 y 2008-2010), además de profesor consulto y titular. En cuanto a su formación es Licenciado en Ciencias Matemáticas (UBA, 1964) y Doctor en Matemática por la Universidad de Zurich (1970). Participó de la creación del Modelo Mundial Latinoamericano, gestado en la década del 70 en la Fundación Bariloche. Actualmente trabaja en ARSAT SA, es consultor en seguridad informática e investigador con una importantísima trayectoria en criptografía, optimización no lineal y modelos matemáticos. Es uno de los investigadores que más sabe de criptografía en Argentina, con un pie en el mercado de la seguridad informática y otro en la investigación básica.

En un extenso diálogo personal con el DC, Scolnik nos cuenta en detalle sobre el proceso de creación del Departamento, su destacada participación en el Modelo Mundial Latinoamericano y sus actuales tareas.

¿Cómo fue fundar el DC en los años 80, cómo era el clima que se vivía en la época?

Como antecedentes hay que mencionar que tras la Noche de los Bastones Largos, renuncié a la Universidad. Me convocaron de nuevo en 1973, porque había todo un movimiento del Departamento de Matemática para tratar de hacer cosas aplicadas, que no prosperó. En 1974 llegó la misión del rector Ottalagano, un período infame donde se dedicaron a echar gente de la Universidad (que era vista como “peligrosa”).

La Computación estaba en decadencia porque la carrera de Computador Científico (creada en 1963), más de diez años después se reducía a trabajar en dos cuartitos del segundo piso del Pabellón 1, pero no se habían podido incorporar investigadores, no había libros ni revistas o tesis que valieran la pena. La dependencia de Matemática por parte de Computación la tenía paralizada. Y, claramente, cualquier fondo que llegará a la FCEN no iba a ser destinado a Computación.

Como era costumbre, nos echaron: una vez más (Klimovsky decía que la tercera vez que lo echaron se reía, pero a mí no me causaba mucha gracia). Y cuando retornó la democracia a fines de 1983, primero me había convocado Delich para trabajar en el rectorado (quien era el rector normalizador que designó Alfonsín) y luego volví a Exactas. En ese momento le comenté al decano Klimovsky que Computación, siendo una de las áreas más activas del mundo en investigación y desarrollo de tecnología, estaba totalmente moribunda, y que la manera de reflotarla era creando un Departamento independiente.

Entonces generamos el proyecto del DC y el Departamento fue creado en 1985, momento en el que también asumí la dirección. Pero había que encontrar un lugar, y lo único que encontré en ese momento fue el área de Automotores en el Pabellón 1. Lentamente se fue generando un proyecto arquitectónico medio primitivo y, para variar, era una época de inflación. O sea que cada vez que se conseguían X pesos se agotaban enseguida por un tema de costos, y había que pedir fondos de nuevo.

Lentamente se fue construyendo lo que fue el inicio del DC, con muchísima gente que colaboró desde el principio. Tanto argentinos como gente del extranjero, como por ej. Ugo Montanari y Norma Litjmaer. Y todos los que continuaron muy bien el trabajo de dirección, como Adolfo Kvitca e Irene Loiseau, teniendo en cuenta que siempre fue muy difícil llevar adelante el depto. por las dificultades presupuestarias habituales. Pero insistiendo mucho el DC empezó a crecer, y se generó el primer plan de estudios. El desafío era incorporar nuevos temas como base de datos e inteligencia artificial, sin que se convirtiese en una licenciatura infinita (porque algo que caracteriza al sistema educativo argentino es que las carreras son muy largas). 

También en esta referencia se puede ver cómo Internet en nuestro país “nació” en Exactas, gracias al empuje de Julián Dunayevich, Nicolás Baumgarten, Jorge Amodio, Mauricio Fernández, etc. Todos nosotros motivados por Alberto Mendelzon (argentino que vino desde Canadá como profesor visitante) y que lo primero que me preguntó era cómo hacer para usar email.

¿El hecho de que Sadosky haya sido Secretario de Ciencia y Técnica, en esa época, benefició el impulso de la computación nacional?

Sadosky fue un gestionador excepcional. El tema es que en general a los funcionarios de este país si se les plantea algo a largo plazo, salvo que sirva para las elecciones, no lo toman en cuenta. Recuerdo la presencia de Sadosky en la Secretaría de Ciencia y Técnica, y las discusiones del momento. Tenía algo de romántico, porque fue el tipo de académico que pensaba que porque le explicaba al político algo que era importante, él mismo lo consideraría en su agenda. Fuimos a verlo a Alfonsín, cuando Sadosky era Secretario de Ciencia y Técnica; ellos se conocían muy bien del exilio en Venezuela y Sadosky le hablaba mucho pero lo que tenía en la cabeza Alfonsín era muy claro: golpes militares, inflación, es decir, todos los problemas que lo acosaban como gobierno civil. El discurso de Manuel era perpendicular a la realidad, y lo seguimos viendo en distintos gobiernos cuando la ciencia y la tecnología no son prioridades reales salvo en lo discursivo.

Y una cosa que tenemos los científicos en Argentina es que además de investigar tenemos que hacer prácticamente todo, la gestión del subsidio, la promoción de la importancia de nuestro propio trabajo (marketing) y toda la carga administrativa que el mismo sistema impone. Lograr conseguir que la ciencia se transforme en tecnología efectiva en este país es dificilísimo, y siempre lo que se logró fue gracias a gente muy motivada y a grandes sacrificios personales.

Quería conversar un poco sobre el Modelo Mundial Latinoamericano. ¿Cómo fue tu rol al frente del desarrollo del modelo que resultó un hito en la región?

El Modelo Mundial Latinoamericano (MML) surgió en 1970, a partir de una reunión realizada en Río de Janeiro promovida por el Club de Roma y el Instituto Universitario de Pesquisas de Río de Janeiro, para analizar y discutir el Modelo Mundo III (mal llamado) del Massachusetts Institute of Technology (MIT), el cual atribuía el subdesarrollo, los problemas internacionales y la pobreza a la superpoblación de los países en vías de desarrollo, la escasez de recursos naturales, la contaminación, etc.

Después de que renuncié a la Universidad en la Noche de los Bastones Largos, me fui a vivir a Bariloche trabajando en el Instituto Balseiro como profesor de Matemática Aplicada y en la Fundación Bariloche. La Fundación fue creada por Carlos Mallmann, físico y ex director del Centro Atómico. Creo que fue la única organización realmente interdisciplinaria que conocí en la Argentina y en la región (lo digo porque había una cantidad y variedad de disciplinas y ejes temáticos, que iban desde la Camerata Bariloche hasta Economía de la Energía o Sociología). A la Fundación Bariloche iba asiduamente un economista y sociólogo suizo que se llamaba Peter Heinz y un día me dijo que no conseguía en Suiza a nadie que hiciera un modelo matemático de su teoría de las “tensiones estructurales” para reproducir la dinámica del sistema internacional. Logré hacer un modelo que funcionaba bien usando técnicas de Inteligencia Artificial (en esa época publiqué un par de papers sobre Machine Learning). De repente me llegó una oferta del gobierno suizo para irme allá como investigador del Instituto de Sociología de la Universidad de Zurich. Algo curioso es que mi oficina pasó a ser una “fábrica de modelos”, donde había cola de economistas, sociólogos y ecólogos. Aprovechando el hecho de que entre el Politécnico Federal (ETH) y la Universidad de Zurich había una gran concentración de científicos, pude lograr que B.L.Van der Waerden me aceptase como doctorando, porque le expliqué una idea que tenía para hacer modelos no lineales que le gustó.

Unos años después, ya doctorado, volví de Suiza y pudimos obtener fondos en la Fundación Bariloche para crear un centro de cómputos donde estaba la primera computadora de la Patagonia. Y esto nos ayudó a brindar diversos servicios a organizaciones, desde Austral hasta el Banco de Rio Negro y la Cooperativa de Electricidad. Y así fuimos creciendo. Un día me llamó Mallmann, el presidente de la Fundación, y me puso al tanto de las discusiones que había con el modelo “Los límites del crecimiento”, creado en USA. Quiero aclarar que muchos lo llamaban “Modelo del MIT”, pero la realidad es que era de un pequeño grupo de la Sloan School of Management, completamente marginal a los físicos, ingenieros o computadores del MIT. El mensaje que daban, desde el punto de vista político, era espantoso: había que detener el crecimiento porque no alcanzaban los recursos naturales del planeta para sostener a toda la población e incluso uno de los autores llegó a plantear que había que eliminar gente por la fuerza. Una de las cosas más groseras es que tomaron los datos de recursos naturales del año 1900 y los habían confundido con la existencia física real de los mismos en el planeta en 1970.

En esta reunión central donde estuvimos con Amílcar Herrera (geólogo y referente de la corriente de Pensamiento Latinoamericano en Ciencia y Tecnología), Jorge Sábato, Enrique Oteiza y Gilberto Gallopin, decidimos construir un modelo refutando al modelo del Norte, y haciéndolo con tecnologías y recursos humanos propios, mostrando que no éramos una región subdesarrollada y que podíamos generar nuestro propio modelo. Amílcar Herrera era el director del proyecto, mientras que yo era subdirector y estaba a cargo de hacer el modelo.

Empezamos la construcción de un modelo económico en serio, no monetarista, que se dedicase a hablar de variables como proteínas y calorías por persona, cantidad de metros cuadrados de vivienda, nivel de educación, producto bruto, entre otras. Para nuestro modelo elegimos la “esperanza de vida al nacer” como variable fundamental a utilizar, pues es un proxy de la distribución del ingreso y de la verdadera situación de las poblaciones. El tema es que al modelo había que definirle objetivos y restricciones para que fuese realista. Lo que hacía, cada año, era asignar recursos de mano de obra y capital a los distintos sectores para lograr maximizar la esperanza de vida. Se creó una base de datos con la información de casi todos los países del mundo en varias décadas, y con esta información generamos diversos submodelos no lineales de Demografía, etc. Ese fue en líneas generales el modelo, que se aplicó a varios países, como Brasil, Egipto e India. Y Naciones Unidas lo aplicó a muchas cosas, como al problema del desarme, al desarrollo industrial, y también tuvo algunas consecuencias políticas. Por ejemplo, en la India tomaron nuestro concepto de las necesidades básicas y lo incorporaron en su Constitución. También generamos un sistema en la UNESCO (París) para entrenar planificadores que iban a capacitarse, se trataba de un sistema interactivo que permitía cambiar restricciones del modelo y que instalamos con Irene Loiseau desde Brasil. Por ej. en el MML podés decir “yo quiero que la educación avance más rápido que la vivienda” y definir el porcentaje que querés que avance (por ej. 7 u 8%), aunque normalmente hay que sacrificar alguna variable en pos de otras debido naturalmente a la disponibilidad de recursos. Entonces hay una jerarquía de cosas que se pueden modelar, por ej. que la vivienda crezca un 10% por año; pero si no alcanzan los recursos se “sacrifican” otras variables como educación, vivienda, salud, calorías, proteínas, en un orden definido por el usuario del modelo. Y a los planificadores les encantó esta idea, muchos dijeron que aprendieron un montón y se volvieron a sus países a trabajar.

¿De qué modo continuó el proyecto con el MML? Entiendo que el grupo de investigadores dirigido por Rodrigo Castro sigue trabajando activamente con el modelo.

El tema es que cuando traje el modelo desde Brasil, tenía todo guardado en cintas magnéticas. Por un tema de cambio tecnológico estas cintas no se pudieron leer. Lo que sí tenía eran impresiones en papel de todo el modelo, que usaba en los viajes teniendo los datos a mano para contestar infinidad de preguntas. Entonces cuando lo conocí a Rodrigo Castro, le conté este escenario y justo el tesista de licenciatura Alejandro Danós digitalizó todo el modelo en su trabajo de tesis, es decir se puso a tipear estos datos y corregirlos hasta que los resultados coincidieran con la versión original. Ahora obviamente tenemos backups del modelo en distintos lados. Muchas técnicas y métodos de análisis de datos no lineales desarrolladas para el MML siguen vigentes.

Además de la tesis, se hizo un sitio web para poder correr efectivamente el modelo. También desarrollamos métodos de análisis de sensibilidad en los modelos. Supongamos que uno hace un modelo de la economía argentina; lo que se espera de un modelo confiable es que los resultados sean coherentes si uno modifica los valores de los datos iniciales dentro de su rango de error. Si esto no sucede es porque el modelo es inestable y por lo tanto no puede usarse para la toma de decisiones. Tradicionalmente el análisis de sensibilidad de modelos dinámicos se hace de forma errónea (ver por ejemplo este paper). Entonces se implementó un algoritmo que desarrollé hace años para resolver esto, que después lo usamos en un convenio con Suecia. También se incorporó el lenguaje Modélica con Rodrigo y con Alejandro y tenemos al respecto un paper conjunto publicado. Además estuvimos trabajando con economistas, siempre con la idea de llegar a tener algún modelo propio de Argentina, pero para eso necesitamos tiempo, esfuerzo, no demasiados fondos, pero sobre todo continuidad.

Por último, ¿cómo sigue tu tarea de consultor en seguridad informática?

Sigo trabajando en ARSAT, donde hemos desarrollado diferentes proyectos de seguridad informática.

Hoy la gran amenaza de la seguridad informática es la llegada de las computadoras cuánticas. En general todos los métodos de criptografía que conocemos se basan en lo que llamamos “funciones de una única vía”. Por ejemplo, el método más común de firma digital es el RSA. ¿En qué consiste? En que vos tomás dos números primos, podés multiplicarlos en una fracción de segundo en una computadora y tenés un número que aparece tanto en la clave privada como en la pública. Si hacemos al revés, te doy el producto de los primos y te pregunto cuáles eran esos números primos, nadie lo puede resolver en forma eficaz en este momento si los números son suficientemente grandes. Entonces esta función de una vía consiste en que multiplicar dos primos se puede hacer muy rápido pero al revés no lo puedo hacer; y si se logra hacerlo la clave privada se calcula trivialmente a partir de la pública. Entonces las funciones de una vía son funciones computables en un sentido pero no al revés. Una computadora cuántica puede transformar ese tipo de problemas como el RSA, que es un problema de complejidad exponencial, en uno trivial que se puede resolver en fracciones de segundo, destruyendo así toda la ciberseguridad que conocemos en el mundo moderno (no solo lo que usamos para claves de encriptación sino también las criptomonedas, las comunicaciones de Internet como TLS, los antiguos métodos de intercambio de claves como Diffie-Hellman,etc.).

Hoy en día hay algoritmos para encriptar información que son muy seguros como el AES. Ahora bien, si me quiero comunicar con vos en forma encriptada tenemos que compartir una clave, y entonces el problema es cómo la compartimos, ¿te la digo ahora? Están escuchando. ¿Te la paso por Whatsapp, SMS o mail? Entonces está el riesgo de compartir una clave y si la detecta el espía se acabó la seguridad. Muchos de los esfuerzos de espionaje de los países, como Israel o China, están puestos en estas tareas.

Lo que hicimos en ARSAT fue un método para que dos partes lleguen a una clave común pero el espía que está escuchando no pueda deducirla, y este algoritmo forma parte de un sistema general llamado Cryptocomm que implementa nuevas formas post cuánticas de claves público/privadas, certificados digitales, autoridades certificantes, encriptación simétrica, etc. Es decir que Cryptocomm resiste los ataques de las computadoras clásicas y de las cuánticas (ver noticia). Cuando decidimos hacer todo esto, formalizamos un convenio con INVAP, por el cual vamos a desarrollar unas máquinas de encriptación no solo para abastecer a Argentina sino para situarnos en un escenario mundial, o sea exportar.

¿Se difunden estos temas, principalmente a estudiantes o profesionales interesados?

Actualmente estamos dando charlas sobre la criptografía post-cuántica en el posgrado de Seguridad Informática de la UBA y otros foros, especialmente sobre el desarrollo de algoritmos basados en problemas NP Completos que no son resolubles ni atacables por las computadoras cuánticas. Y también avanzando en publicaciones específicas (ver paper) sobre la criptografía post-cuántica, que se comparten con la comunidad científica interesada. 

clic para ver video complementario