El crowdfunding es una de esas grandes noticias que nos ha traído internet en los últimos años porque permite a muchas personas hacer realidad viejos sueños y proyectos para los que no hay empresas comprometidas que puedan llevarlos adelante. Es por eso que gracias a la difusión de plataformas como Kickstarter, GoFundMe o Indiegogo (entre otras muchas), las pequeñas aportaciones de miles de potenciales clientes logran que esas ideas geniales tengan una viabilidad comercial.

Ahora bien, como toda herramienta pensada para hacer cosas buenas, siempre puede ser utilizada de manera torticera por aquellos que no tienen escrúpulos a la hora de robar el dinero a los demás, ofreciendo proyectos que no tienen respaldo ni existen, y que solo se conciben como estafas al calor de la confianza que nos despiertan estas iniciativas que, en una abrumadora mayoría, siempre salen adelante con éxito.

Para que os hagáis una idea del problema que supone estos crowdfundings fake, el año pasado se conoció el caso de Dragonfly Futurefön, que acabó costándole más de seis millones de dólares a todos los que participaron en el proyecto. O el caso de una mochila con batería y wifi que desapareció sin dejar rastro tras recaudar más de 700.000 dólares. A pesar de lo escandaloso de estas cifras, esas campañas que no son tal y apenas alcanzan el 0,1% de todas las que se presentan.

Inteligencia artificial para detectar fraudes

Con todo lo anterior sobre la mesa, algunos investigadores han querido saber si existe algún método con el que prevenir estas estafas a través de páginas de micromecenazgo, y han llegado a la conclusión de que la inteligencia artificial tiene un papel que desempeñar en estos procesos. Se trata de profesionales que trabajan en la University College of London, Telefónica Research y la London School of Economics, que han desarrollado un sistema que tiene en cuenta tanto las "características textuales" y de "imágenes para clasificar el comportamiento fraudulento de un crowdfunding en el momento de la publicación".

crowdfunding | myfeetinflames.com

El estudio utilizó analistas humanos para calificar cerca de 700 campañas que etiquetaron como "fraude" o "no fraude" de acuerdo a ciertos criterios preestablecidos: información contradictoria, falta de compromiso de los backers o participaciones del creador de la campaña en otras iniciativas. A continuación se fijaron en datos de texto e imágenes para hallar posibles matices para, al final, volcar toda esa información en un sistema capaz de analizarlo y ponerlo en contexto.

Ese procesado posterior también tuvo su miga con análisis de sentimientos, tonos, expresiones y descripciones que eran capaces de detectar "tristeza, alegría, miedo, asco e ira", así como estados de ánimo como "frustración, satisfacción, emoción, cortesía, descortesía, tristeza y simpatía". Otro de los apartados analizados fue el de la "complejidad y elección del idioma": a mayor simpleza y sencillez en las palabras utilizadas, más posibilidades de tratarse de una estafa; la morfología del texto, también, tuvo su papel en el análisis para confirmar si el autor de la campaña no usaba mayúsculas, si escribía correctamente e incluso si existían coincidencias de estilo con otras iniciativas ya etiquetadas como de "fraude".

También las imágenes sufrieron un proceso de análisis por parte de la inteligencia artificial, que es capaz de establecer un estado de ánimo de la persona que las ha seleccionado y, a partir de ahí, unir todos esos resultados para obtener un veredicto final: "fraude" o "no fraude".