Un sistema de inteligencia artificial que se conecta a las cámaras de vigilancia y es capaz de predecir cuando la gente está a punto de cometer un delito se encuentra en pleno desarrollo, financiado por los militares de EE.UU..
El software, llamado Mind's Eye ( Ojo de la Mente ), reconoce las actividades humanas y utiliza algoritmos para predecir lo que los objetivos podrían hacer a continuación , notificando a las autoridades cuando se sospechan intenciones delictivas.
La tecnología trae ecos de la película Minority Report, donde las personas son castigadas por delitos que están a punto de cometer, en lugar de luego de haberlos cometido.
Científicos de la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania, EE.UU., han presentado un documento que demuestra cómo tal llamada "predicción de actividad" funcionaría.
El estudio, financiado por el Army Research Laboratory, se centra en la "detección automática de comportamientos anómalos y amenazantes", a través de las formas de actuar de los seres humanos y sus mecanismos para transmitir información a los sentidos.
El sistema funciona con una infraestructura de alto nivel de inteligencia artificial que los investigadores llaman "motor cognitivo" que pueden aprender a relacionar las señales correspondientes con un conocimiento previo y entrelazarlos.
Las señales que la IA puede reconocer cubre patrones básicos de actuación que en determinado contexto pueden constituír un comportamiento sospechoso.
El software, llamado Mind's Eye ( Ojo de la Mente ), reconoce las actividades humanas y utiliza algoritmos para predecir lo que los objetivos podrían hacer a continuación , notificando a las autoridades cuando se sospechan intenciones delictivas.
La tecnología trae ecos de la película Minority Report, donde las personas son castigadas por delitos que están a punto de cometer, en lugar de luego de haberlos cometido.
Científicos de la Universidad Carnegie Mellon en Pittsburgh, Pennsylvania, EE.UU., han presentado un documento que demuestra cómo tal llamada "predicción de actividad" funcionaría.
El estudio, financiado por el Army Research Laboratory, se centra en la "detección automática de comportamientos anómalos y amenazantes", a través de las formas de actuar de los seres humanos y sus mecanismos para transmitir información a los sentidos.
El sistema funciona con una infraestructura de alto nivel de inteligencia artificial que los investigadores llaman "motor cognitivo" que pueden aprender a relacionar las señales correspondientes con un conocimiento previo y entrelazarlos.
Las señales que la IA puede reconocer cubre patrones básicos de actuación que en determinado contexto pueden constituír un comportamiento sospechoso.
Según Phys.org, este enfoque automatizado de la vigilancia podría algún día tentar a las autoridades a reemplazar a los humanos con ordenadores operadores de cámara de CCTV.
Los vigilantes humanos son caros de mantener y muy falibles, distraídos o somnolientos y presuponen un riesgo para la seguridad si se pierden las señales de peligro, mientras que las computadoras están siempre vigilantes una vez instaladas, y son más baratas.
No hay comentarios:
Publicar un comentario