Redwood City, California, Diciembre 3, 2020 – Avast (AVST:LSE), líder global en productos de seguridad digital y privacidad y Borsetta, una empresa de servicios de hardware informático seguro definida por software de IA, anunciaron hoy que se unirán a Intel para lanzar el Instituto Privado de Investigación Colaborativa de IA (Private AI Collaborative Research Institute). El propósito de esta nueva colaboración será avanzar y desarrollar tecnologías que fortalezcan la privacidad y la confianza para la IA descentralizada.
El Instituto privado de IA (Private AI Institute) fue creado originalmente por la Oficina de Investigación y Colaboración Universitaria (URC) de Intel, que luego amplió el potencial de colaboración del Instituto invitando a Avast y Borsetta a unir fuerzas. Juntos, todas las partes emitieron una convocatoria de propuestas de investigación a principios de este año y seleccionaron los primeros nueve proyectos de investigación que contarán con el apoyo del Private AI Collaborative Research Institute en ocho universidades:
- Carnegie Mellon University, U.S.A.
- University of California, San Diego, U.S.A.
- University of Southern California, U.S.A.
- University of Toronto, Canadá
- University of Waterloo, Canadá
- Technical University of Darmstadt, Alemania
- Université Catholique de Louvain, Bélgica
- National University of Singapore, Singapur
El Instituto Privado de Investigación Colaborativa de IA fomentará y apoyará investigación fundamental que resultará en la resolución de los desafíos del mundo real para la sociedad, y se dedicará a adoptar un enfoque ético para el desarrollo de la IA. Mediante la descentralización de la IA y el traslado de análisis de IA al borde de la red, las empresas tienen como objetivo liberar los datos de los silos, proteger la privacidad y la seguridad, y a su vez mantener la eficiencia.
El Instituto Privado de Investigación Colaborativa de IA tendrá como objetivo superar una serie de desafíos a los que se enfrentan las industrias y las sociedades en la actualidad. Esto incluye, pero no se limita a:
- Los datos de entrenamiento se descentralizan en silos aislados y a menudo son inaccesibles para el entrenamiento centralizado.
- Las soluciones actuales que requieren un único centro de datos de confianza son frágiles - el entrenamiento centralizado puede ser fácilmente atacado modificando datos en cualquier lugar entre la recopilación y la nube. No existe un marco existente para la formación segura descentralizada entre los participantes potencialmente desconfiados.
- Los modelos centralizados se vuelven obsoletos rápidamente a medida que los datos en el borde cambian con frecuencia. Hoy en día los ciclos de lote poco frecuentes para la recopilación, la formación y la implementación pueden dar lugar a modelos obsoletos; no es posible el reentrenamiento continuo y diferencial.
- Los recursos informáticos centralizados son costosos y limitados por la comunicación y la latencia.
- El aprendizaje automático federado, una técnica utilizada para entrenar un algoritmo en múltiples dispositivos perimetrales descentralizados, es limitada. Aunque la IA federada de hoy en día puede acceder a los datos en el perímetro, no puede garantizar simultáneamente la precisión, la privacidad y la seguridad.
Michal Pechoucek, Director de Tecnología de Avast, añadió: “Con nuestro cualificado equipo de investigación de IA, y Avast AI and Cybersecurity Laboratory (AAICL) ubicado en el campus de la Universidad Técnica Checa (CTU), ya estamos siendo testigos de los grandes resultados de nuestra investigación científica sobre la intersección de la IA, el Machine Learning y la ciberseguridad. La colaboración industrial y académica es clave para abordar los grandes problemas de nuestro tiempo, incluida la IA ética y responsable. A medida que la IA sigue creciendo en fuerza y alcance, hemos llegado a un punto en el que la acción es necesaria, no sólo hablarlo. Estamos encantados de unir fuerzas con Intel y Borsetta para desbloquear todo el potencial de la IA para mantener a las personas y sus datos seguros”.
Borsetta se ha unido al Instituto Privado de Investigación Colaborativa de IA debido a su firme creencia en impulsar un marco de preservación de la privacidad para apoyar nuestro futuro mundo hiperconectado potenciado por la IA. Pamela Norton, CEO de Borsetta, declaró: “La misión del Private AI Collaborative Institute está alineada con nuestra visión de seguridad a prueba de futuro donde los datos están protegidos de forma fiable con servicios de computación perimetral en los que se puede confiar. La confianza será la moneda del futuro, y necesitamos diseñar sistemas perimetrales integrados en IA con confianza, transparencia y seguridad, al tiempo que avanzamos en los valores impulsados por el ser humano que estaban destinados a reflejar”.
Richard Uhlig, investigador senior de Intel, vicepresidente y director de Intel Labs, dijo: "La IA seguirá teniendo un impacto transformador en muchas industrias, y está a punto de convertirse
en una fuerza que cambiará la vida en las industrias de la salud, la automoción, la ciberseguridad, las finanzas y la tecnología. Dicho esto, la investigación de la IA responsable, segura y privada es crucial para que su verdadero potencial se realice. El Private AI Collaborative Research Institute estará comprometido con el avance de las tecnologías utilizando principios éticos que ponen a las personas en primer lugar y mantienen a las personas seguras y protegidas. Invitamos a Avast y Borsetta a unirse a nosotros en nuestra misión de identificar el verdadero impacto de la IA en el mundo que nos rodea. Estamos emocionados de tenerlos a bordo para mitigar posibles desventajas y peligros de la IA".
Para obtener más detalles sobre el centro, y para seguir los emocionantes descubrimientos de investigación en el futuro, por favor visite: https://www.intel.com/content/www/us/en/research/blogs/private-ai-collaborative-research-institute-launch.html