¿Los algoritmos lo saben todo o deben ayudarles los humanos?


La nueva ciencia de datos se cuestiona cuándo hace falta que una persona supervise una decisión automatizada, como la concesión de un préstamo, y cuándo no.

Por Steve Lohr

Hay ejércitos formados por las mentes más brillantes de la informática que se han dedicado a incrementar las probabilidades de conseguir una venta. La abundancia de datos y programas inteligentes de la era de Internet ha abierto la puerta al marketing a medida, los anuncios personalizados y las recomendaciones de productos. No hay más que fijarse en la gran restructuración, propiciada por la tecnología, de los sectores de la publicidad, los medios de comunicación y la venta minorista.

Esta toma de decisiones automatizada está pensada para eliminar a los humanos de la ecuación, pero el impulso de querer que alguien supervise los resultados que vomita el ordenador es muy humano. Muchos expertos en datos matemáticos consideran que el marketing es una placa de Petri con pocos riesgos —y, sí, lucrativa— en la que poner a punto las herramientas de una nueva ciencia. “¿Qué pasa si mi algoritmo se equivoca? Alguien verá el anuncio erróneo”, comenta Claudia Perlich, una especialista en datos que trabaja para una empresa que se dedica a la publicidad personalizada. “¿Qué daño puede hacer? No es un falso positivo de un cáncer de mama”.

Pero el riesgo aumenta a medida que la economía y la sociedad se empapan de los métodos y la mentalidad de la ciencia de los datos. Las grandes empresas y las de nueva creación empiezan a utilizar la tecnología para tomar decisiones relacionadas con el diagnóstico médico, la prevención de la delincuencia y la concesión de préstamos. En estos ámbitos, la aplicación de la ciencia de los datos plantea dudas sobre cuándo hace falta que una persona supervise atentamente los resultados de un algoritmo.

Estas dudas están dando pie a una rama de los estudios académicos conocida como responsabilidad algorítmica. Las organizaciones que velan por el interés público y los derechos civiles están examinando detenidamente las repercusiones que tiene la ciencia de los datos, tanto por sus errores como por sus posibilidades. En el prólogo de un informe del pasado mes de septiembre, Derechos civiles, macrodatos y nuestro futuro algorítmico, Wade Henderson, presidente de la Conferencia por el Liderazgo en Derechos Humanos y Civiles, escribía: “Los macrodatos pueden y deben aportarnos a todos más seguridad, oportunidades económicas y comodidad”.

Fíjense en los préstamos para el consumo, un mercado en el que hay varias empresas de nueva creación especializadas en macrodatos. Sus métodos representan la versión digital del principio más elemental de la banca: conozca a sus clientes. Estas nuevas entidades crediticias especializadas en datos aseguran que, al recopilar datos de fuentes como los contactos de las redes sociales, o incluso observar el modo en que un solicitante rellena un formulario de Internet, pueden conocer a los prestatarios mejor que nunca y predecir si devolverán el préstamo mejor que si se limitasen a estudiar el historial crediticio de alguien.

Lo que prometen es una financiación y una valoración más eficaces de los préstamos, lo que ahorrará a la gente miles de millones de dólares. Pero los préstamos basados en macrodatos dependen de unos algoritmos informáticos que analizan minuciosamente montones de datos y van aprendiendo durante el proceso. Es un sistema muy complejo y automatizado (y hasta sus defensores tienen dudas).

“Toman una decisión sobre usted, sin que usted tenga ni idea de por qué la han tomado”, explica Rajeev Date, que invierte en entidades crediticias que emplean la ciencia de los datos y ha sido director adjunto de la Oficina de Protección Financiera del Consumidor. “Eso es inquietante”.

Uno de los planteamientos es que el humano siga formando parte del proceso. Los datos y los programas informáticos dan vida a las nuevas entidades crediticias que emplean la ciencia de los datos. Pero, en San Francisco, una de estas empresas de nueva creación, Earnest, hace que al menos uno de sus empleados revise las recomendaciones predictivas del programa, aunque es raro que rechace lo que dictan los algoritmos. “Pensamos que el factor humano siempre será una parte importante del proceso, ya que nos permite asegurarnos de que no nos equivocamos”, dice Louis Beryl, cofundador y consejero delegado de Earnest.

Pero esa postura, opinan otros, no es más que una ilusión reconfortante; puede que sea buen marketing, pero no necesariamente buena ciencia de los datos. Afirman que el hecho de concederle a un humano capacidad de veto dentro de un sistema algorítmico introduce un sesgo humano. Al fin y al cabo, lo que promete la toma de decisiones fundamentada en los macrodatos es que las decisiones basadas en los datos y el análisis —más ciencia, menos intuición y menos arbitrariedad— proporcionarán mejores resultados.

No obstante, aunque el optimismo esté justificado, hay un reto importante, dada la complejidad y la opacidad de la ciencia de los datos. ¿Podrá una tecnología que promete grandes beneficios proteger lo suficiente al individuo de una decisión misteriosa y caprichosa que podría tener un efecto duradero en la vida de una persona?

Una posible solución, según Gary King, director del Instituto de Ciencias Sociales Cuantitativas de Harvard, sería que los creadores de los algoritmos que otorgan puntuaciones los retoquen no para obtener el máximo beneficio o rentabilidad, sino para que el valor que conceden a la persona sea algo mayor, lo que reduciría el riesgo de equivocarse.

En el sector bancario, por ejemplo, se podría ajustar un algoritmo para que redujese la probabilidad de catalogar erróneamente de aprovechado al solicitante de un préstamo, aunque ello conlleve que la entidad crediticia acabe concediendo más préstamos incobrables. “El objetivo”, dice King, “no es necesariamente que un humano supervise el resultado a posteriori, sino mejorar la calidad de la clasificación de los individuos”.

En cierto sentido, un modelo matemático equivale a una metáfora, una simplificación descriptiva. Filtra, pero también distorsiona un poco. Por eso, a veces, un ayudante humano puede aportar esa dosis de datos matizados que se le escapa al autómata algorítmico. “A menudo, los dos juntos pueden funcionar mucho mejor que el algoritmo por sí solo”, afirma King.

Deja un comentario