por Roy Schestowitz
Hay una carta abierta circulando este mes, llegando no sólo al personal de EPO, sino también a los delegados nacionales que permitieron a Benoit Battistelli y António Campinos. Recipieron por soborno. Así de torcido es todo este sistema de gobierno. Es una corrupción descarada; incluso sobornan a los medios de comunicación y a la academia para encubrir lo que está pasando.
Esta vez el tema es descabellado, o cómo la dirección de EPO quiere sustituir al personal por slop,
La OEP actual no sólo concede muchas patentes de software europeas -es decir, patentes que son ilegales e indeseables- también quiere automatizar este proceso utilizando software.
"En una carta abierta enviada el 17 de junio de 2025 a los Jefes de Delegación en el Consejo Administrativo", dice el Comité Central de Personal sobre su propia carta, "el Comité Central del Personal (CSC) pide al Consejo Administrativo que ejerza su función de supervisión y ordene a la dirección de la OEP que entable un diálogo genuino con la representación del personal sobre la política de la IA, revise el objetivo de "Liberenización de la IA" de la clasificación del 90% de la IA en el SP2028 y que establezca las medidas apoyadas por el personal en la resolución".
Lo han puesto en una "carta abierta con la resolución aprobada como anexo". (Replicamos este anexo aquí antes, pero lo volveremos a hacer)
Hoy la reprodujimos a continuación:
Oficina Europea de Patentes
80298 Múnich
AlemaniaComité Central de Personal
Comité central du personal
Zentraler PersonalausschusscentralSTCOM.epo.org
Referencia: sc25038cl
Fecha: 13/06/2025
Oficina Europea de Patentes 80298 MUNICH - ALEMANIA
A: Jefes de Delegaciones en el Consejo Administrativo
Cc: Sr. António Campinos (Presidente de la Oficina)Por correo electrónico:
A: Council.epo.org
Cc: President.epo.orgCARTA DE resolución OPEN
Convocatoria de revisión de la Política de EPO AI y del objetivo de Aprovechamiento del objetivo de AI SP2028
Estimados Jefes de Delegaciones en el Consejo de Administración, el personal de la Oficina Europea de Patentes se reunió el 5 de junio de 2025 en una Asamblea General a la que asistieron 906 participantes 1 para Munich y La Haya, y 53 en Berlín.
Una resolución sobre la Política de AI 2 se sometió a votación y fue aprobada por una abrumadora mayoría 3: 638 votaron a favor, 32 en contra y 23 se abstuvieron. El resultado confirma las preocupaciones del personal sobre la política de EPO AI.
La OEP anunció su Política de AI el 5 de marzo de 2025 a través de una noticia en la Intranet sin consultar al personal y su representación, y sin ninguna decisión del Consejo de Administración. En la reunión del Comité de Apoyo Técnico y Operacional (TOSC) los días 29 y 30 de abril, la OEP hizo una presentación 4 sobre la política de IA, pero no presentó la propia política. Las delegaciones de los Estados miembros sólo recibieron un enlace al documento de política relativo al Portal de Acceso único el día anterior a la reunión.
-
1 906 participantes conectados a la reunión con un máximo de 736 conexiones simultáneas
Adopción de la resolución sobre la política de la OPE de la AI [anexo]
3 585 (MU/TH)-553(BE) a favor, 32 (MU/TH) 0 (BE) en contra, 23 (MU/TH) abstuvo
4 CA/T 10/25
La Política EPO AI no está vinculada por textos internacionales y sólo toma nota de iniciativas como el Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho de 17 de mayo de 2024, y la Ley de AI de la UE. Mientras que la Ley UE-AI (Recital 6) define la IA centrada en el hombre como que tiene el objetivo de aumentar el bienestar humano, la OEP restringe su enfoque centrado en el hombre como decisiones finales en la OEP que toman los actores humanos. Esto es insuficiente. Si no hay una revisión humana sistemática de los pasos intermedios, la IA influye en la decisión final y los humanos pierden el control. Como consecuencia, la política de AI de EPO carece de límites entre la "asistencia" y la toma de decisiones.
Por primera vez en el tercer trimestre de 2024 en el CA/105/24 se definió un Indicador de Desempeño Clave (KPI) de Abundancia de IA y se define en el panel de progreso del Plan Estratégico 2028. El IPC mide la proporción de tareas de clasificación que ya no requieren clasificación intelectual humana (gracias al apoyo de la IA), en comparación con el número total de tareas de clasificación. El objetivo es del 90% en 2028. En lugar de una mera optimización de la intervención humana, se trata de una (cuasi) suplantación de los humanos que tiene lugar en la clasificación y una pérdida de experiencia construida a lo largo de décadas. Es incluso muy discutible si el 10% de la clasificación intelectual humana fresca sería suficiente para la formación en modelos de IA en el futuro.
Una encuesta realizada en febrero/marzo por el Comité Central de Personal (CSC) entre gérants (expertos en clasificación) reunió 247 respuestas y mostró que el 67,61% de ellos están insatisfechos con la calidad de la clasificación de IA. La clasificación precisa es esencial para la calidad de la búsqueda y examen. También es un servicio a los usuarios del sistema de patentes y para el público.
Por último, la OEP no excluye explícitamente el uso de sistemas de IA en materia de empleo: para la contratación, los ascensos y la terminación del servicio; para evaluar la elegibilidad de las personas para obtener beneficios y servicios esenciales, incluida la cobertura sanitaria; para evaluar la probabilidad de que una persona cometa mala conducta y en el curso de las investigaciones. Estos sistemas de IA corren el riesgo de categorización, perfilado y sesgo algorítmico, y no deben convertirse en un sustituto de la gestión humana.
Sólo podemos pedir al Consejo de Administración que ejerza su función de supervisión e instruya a la dirección de la OEP para que entable un diálogo genuino con la representación del personal sobre la política de IA, que revise el objetivo de la IA de la IA del 90% de la clasificación automática de IA en el SP2028 y que establezca las medidas apoyadas por el personal en la resolución.
Sinceramente tuyo,
Derek Kelly
Presidente del Comité Central de Personal
Resolución adoptada sobre la política de la OPE
El personal de la OEP, reunido en una Asamblea General,
Tomando nota de que:
- El Presidente de la OEP adoptó una política sobre el uso de los sistemas de IA en febrero de 2025 sin consultar al personal ni a su representación;
La OEP se esconde detrás de su autonomía administrativa en virtud del artículo 4=CEP para examinar los textos internacionales sobre AI (por ejemplo, Ley de la UE sobre AI) por no jurídicamente vinculante;
- La OEP define su enfoque centrado en el hombre como decisiones finales en la OEP que están adoptando los agentes humanos, mientras que la Ley de AI de la UE (Resíngido 6) define la AI-humana como el objetivo de aumentar el bienestar humano;
La OEP no excluye explícitamente el uso de sistemas de IA en materia de empleo:
- para la contratación, los ascensos y la terminación del servicio 11,
- para evaluar la elegibilidad de las personas para obtener beneficios y servicios esenciales, incluida la cobertura de la salud 22,
- para evaluar la probabilidad de que una persona cometa una falta de conducta y en el curso de las investigaciones 3
En una encuesta entre gérants, 247 respondieron y el 67,61% de ellos respondieron que estaban insatisfechos con la calidad de clasificación proporcionada por la IA-autoclosión;
Los sistemas de IA tienen el potencial de apoyar al personal de la OEP en la reducción de la carga de trabajo rutinaria y la mejora de la calidad de los servicios, siempre que se apliquen de forma transparente, responsable y con una verdadera consulta y formación.
Temiendo:
- la pérdida de la supervisión humana en etapas intermedias y la influencia resultante de la IA en las decisiones finales;
- la categorización y elaboración de perfiles de los empleados de la OEP por los sistemas de IA;
- un efecto perjudicial en la calidad de los servicios prestados por la OEP;
-
1 página 12, EPO POLITICA AI, Apéndice A: Evaluación de impacto y gestión de riesgos, sección B, 2c(ii)
2 página 12, EPO AI Policy, Apéndice A: Evaluación de impacto y gestión de riesgos, sección B, 2d(i)
3 página 12, EPO POLITICA AI, Apéndice A: Evaluación de impacto y gestión del riesgo, sección B, 2e
Pide al Presidente y al Consejo de Administración que:
- ajustar la política de la OPE a la política de la AI de la UE;
- revisar el objetivo SP2028, que apunta a la proporción objetivo del 90% de las tareas de clasificación que ya no requieren una clasificación intelectual humana;
- garantizar que la IA no se utilice como sustituto de la gestión humana;
- consultar sistemáticamente al personal y a su representación antes de cualquier aplicación de la AI;
- impartir capacitación integral y presupuesto de tiempo específico para que el personal encargue de los instrumentos de IA pertinentes a sus funciones;
- revelar transparentemente dónde y cómo se aplican los sistemas de IA (modelo utilizado, capacitación y conjuntos de datos utilizados);
La Haya, Múnich y Berlín, 5 de junio de 2025
Importante recordatorio: se está pagando a los destinatarios de esta carta para que jueguen junto con aquellos que siguen presionando con sus propias propuestas ilegales. Es un sistema roto, al igual que el famoso (anual) voto de la NDAA en los EE.UU.
Como se señaló anteriormente, se paga a los medios de comunicación por no hablar de estas cosas o para en su lugar transmitir un montón de piezas de puff para la EPO.