Un sistema inteligente que detecta fotos inapropiadas

La startup catalana Restb.ai permite que cada empresa cree y ajuste su propio clasificador a sus necesidades específicas.

Publicado el 15 Feb 2016

78217_69

Restb.ai es una startup catalana que ha desarrollado un sistema inteligente para detectar y bloquear imágenes no autorizadas e inapropiadas en internet que permite filtrar fotos relacionadas con pornografía, niños, drogas, violencia o armas.

La tecnología, basada en redes neuronales, permite entrenar clasificadores que analizan imágenes con precisiones superiores al 90%, según ha informado la startup catalana Restb.ai, que centra su actividad en el deep learning (inteligencia artificial).El sistema detecta en tiempo real la posible presencia de imágenes con contenidos inapropiados o no autorizados en portales o redes sociales de internet.

Se trata de un clasificador inteligente entrenado que «ve» e interpreta fotos según su contenido, explicó Ángel Esteban, CEO y cofundador de Restb.ai. El sistema de la compañía permite que cada empresa cree y ajuste su propio clasificador a sus necesidades específicas, en este caso, contenido socialmente sensible, de manera que pueda categorizar y descartar al momento aquellas que no correspondan a su modelo de negocio.

¿Qué te ha parecido este artículo?

Tu opinión es importante para nosotros.

T
Redacción TICPymes

Artículos relacionados