GitHub ha anunciado oficialmente un cambio en su política de uso de datos para el entrenamiento de modelos de inteligencia artificial a partir del próximo 24 de abril. La plataforma utilizará las interacciones de usuarios de las versiones gratuitas y Pro para mejorar sus herramientas de programación. Los suscriptores de planes empresariales y de empresa no se ven afectados por esta modificación específica.
La recopilación incluirá entradas, salidas, fragmentos de código y el contexto asociado durante el uso activo de Copilot. Los usuarios interesados pueden desactivar esta opción mediante la configuración de privacidad de su cuenta específica. Las preferencias previas de exclusión se mantendrán activas de forma automática y respetadas.
Esta decisión se alinea con las prácticas establecidas en la industria tecnológica para el desarrollo de herramientas de IA avanzadas. Microsoft ha utilizado previamente datos de sus propios empleados para refinar los modelos con resultados medibles positivos. La incorporación de datos reales de desarrolladores externos busca diversificar los casos de uso existentes.
Los datos específicos que podrían utilizarse abarcan desde retroalimentación sobre sugerencias hasta patrones de navegación y nombres de archivos. La empresa aclara explícitamente que no compartirá esta información con proveedores de modelos de IA de terceros o externos. Tampoco se usará contenido de repositorios privados almacenados en reposo bajo ninguna circunstancia.
Mario Rodríguez, director de producto de GitHub, explicó que la participación ayuda a comprender mejor los flujos de trabajo de desarrollo actuales. Según el comunicado oficial, los datos reales permiten entregar sugerencias de código más precisas y seguras para los usuarios. La contribución de los usuarios tiene un impacto directo y medible en la calidad de las herramientas.
Aunque el procesamiento de código es necesario para ejecutar el servicio correctamente, los datos en reposo permanecen protegidos. La información puede compartirse con afiliados dentro del grupo corporativo de Microsoft y sus filiales. Esto incluye empresas de la familia corporativa sin revelar datos sensibles a servicios independientes del ecosistema.
El objetivo final es desarrollar una inteligencia artificial que acelere los flujos de trabajo de los programadores de manera eficiente. Los modelos mejorados deberían ayudar a detectar errores potenciales antes de llegar a producción en entornos reales. La estrategia busca equilibrar el avance tecnológico con la seguridad y privacidad del desarrollador.
Los usuarios que no deseen participar conservarán acceso completo a las funciones de IA conocidas sin restricciones. La plataforma ofrece una sección de preguntas frecuentes para aclarar dudas técnicas sobre la privacidad de los datos. La implementación comenzará a aplicarse inmediatamente tras el anuncio oficial de la empresa.
Este cambio refleja la tendencia global de utilizar datos de interacción para entrenar sistemas generativos en el mercado. La competencia en el sector de inteligencia artificial exige mejoras continuas en la precisión de los algoritmos existentes. Los desarrolladores deben estar atentos a las configuraciones de sus cuentas para proteger su información personal.