Código de ética de IA: Bosch establece pautas empresariales para el uso de la inteligencia artificial
La AI debe de ser segura, robusta y explicable

- Código de ética de IA: Bosch da pautas a sus empleados y toma una postura en el debate público sobre la inteligencia artificial.
- Principios rectores: La IA debe ser segura, robusta y explicable. Las personas deben mantener el control de la inteligencia artificial.
- Volkmar Denner, CEO de Bosch, comenta: "Nuestro objetivo es que las personas confíen en nuestros productos basados en IA".
- Alianzas y asociaciones para aumentar la confianza en productos conectados e inteligentes.
Bosch cree que la inteligencia artificial será una tecnología clave en el futuro

Stuttgart y Berlín, Alemania - Bosch ha establecido "líneas rojas" éticas para el uso de la inteligencia artificial (IA). La compañía publicó directrices para el uso de la IA en sus productos inteligentes. El código de ética de la IA de Bosch se basa en la siguiente máxima: los humanos deben mantener el control sobre todas las decisiones basadas en la IA. “La inteligencia artificial debe servir a las personas. Nuestro código de ética de IA brinda a nuestros empleados pautas claras para el desarrollo de productos inteligentes”, dijo Volkmar Denner, CEO de Bosch, en la inauguración de Bosch ConnectedWorld (BCW) de este año en Berlín. "Nuestro objetivo es que las personas confíen en nuestros productos basados en inteligencia artificial".
La IA es una tecnología de vital importancia para Bosch. Para 2025, el objetivo es que cada producto Bosch contenga IA o haya sido desarrollado o fabricado con su ayuda. La compañía se ha fijado el objetivo de hacer que sus productos de IA sean seguros, robustos y explicables. “La confianza sólo puede surgir si la gente ve que la IA no es una caja negra. Y esta confianza será un factor clave de calidad en el mundo conectado”, dijo Michael Bolle, el CDO y CTO de Bosch. Bosch apunta a desarrollar productos basados en inteligencia artificial que sean confiables. Su código de ética se basa en el espíritu "Innovación para tu vida", que combina una búsqueda de innovación con un sentido de responsabilidad social. En los próximos dos años, Bosch planea capacitar a 20,000 empleados en el uso de la IA. El código de ética de IA de Bosch que rige el uso responsable de esta tecnología será parte de dicho programa de capacitación.
La IA tiene un gran potencial
La inteligencia artificial es un motor global de progreso y crecimiento. La consultora PwC, por ejemplo, proyecta que desde ahora hasta 2030, la IA aumentará el PIB en China en un 26%, en un 14% en América del Norte y en alrededor del 10% en Europa. Esta tecnología puede ayudar a superar los desafíos y optimizar los resultados en una gran cantidad de áreas como el transporte, la acción climática, la medicina y la agricultura. Al analizar grandes volúmenes de datos, los algoritmos pueden tomar decisiones de forma razonable. Mucho antes de la introducción de normas vinculantes en la Unión Europea, Bosch ha tomado la decisión de participar activamente en las cuestiones éticas que plantea el uso de esta tecnología. El fundamento moral de este proceso lo proporcionan los valores consagrados en la Declaración Universal de Derechos Humanos.
Los humanos deben retener el control
El código de ética de Bosch para la IA estipula que la inteligencia artificial no debe tomar decisiones sobre los humanos sin que este proceso haya sido supervisado por personas. Además, la inteligencia artificial debería servir a las personas como herramienta. Se describen tres enfoques posibles y todos tienen lo siguiente en común: en los productos basados en IA desarrollados por Bosch, los humanos mantendrán el control sobre cualquier decisión que tome la tecnología. En el primer enfoque (human-in-command), la inteligencia artificial es únicamente una ayuda, por ejemplo, en aplicaciones de ayuda a la toma de decisiones, donde la IA puede ayudar a las personas a clasificar objetos u organismos. En el segundo enfoque (human-in-the-loop), un sistema inteligente toma de forma autónoma decisiones que los humanos pueden, sin embargo, anular en cualquier momento. Ejemplos de esto incluyen la conducción parcialmente automatizada, donde el conductor humano puede intervenir directamente en las decisiones de asistencia al estacionarse. El tercer enfoque (human-on-the-loop) se utiliza en aplicaciones como los sistemas de frenado de emergencia. Al desarrollar tales productos inteligentes, los expertos definen ciertos parámetros como la base para la decisión de IA. No pueden intervenir en el proceso de toma de decisiones en sí. Retroactivamente, los ingenieros pueden verificar si la máquina se adhirió a las reglas establecidas por el programador humano. Si es necesario, los parámetros se pueden cambiar.
Construyendo confianza juntos
Bosch espera también que su código de ética de IA contribuya al debate público sobre la inteligencia artificial. "Dado que la IA cambiará todos los aspectos de nuestras vidas, ese debate es vital", dijo Denner. Se necesitará más que sólo conocimientos técnicos para establecer la confianza en los sistemas inteligentes: también es necesario un diálogo estrecho entre los responsables políticos, la comunidad científica y el público en general. Es por eso que Bosch se ha inscrito en el Grupo de Expertos de Alto Nivel en Inteligencia Artificial, un organismo designado por la Comisión Europea para examinar temas como la dimensión ética de la IA. En una red global que actualmente comprende siete ubicaciones, y en colaboración con la Universidad de Ámsterdam y la Universidad Carnegie Mellon en Pittsburgh, PA, la compañía también está investigando sobre IA segura y confiable. Del mismo modo, como miembro fundador de la alianza de investigación Cyber Valley en Baden-Württemberg, Bosch está invirtiendo 100 millones de euros en la construcción de un campus de IA, donde 700 de sus propios expertos pronto trabajarán codo a codo con investigadores externos y asociados de nuevas empresas. Por último, pero no menos importante, el Digital Trust Forum, un comité establecido por Bosch, tiene como objetivo fomentar el diálogo cercano entre expertos de las principales asociaciones y organizaciones internacionales. Sus 11 miembros se reunirán en Bosch ConnectedWorld 2020. "Nuestro objetivo común es hacer que el IoT sea seguro y confiable", dijo Bolle.
Más de 170 ponentes y 80 expositores.
El Bosch ConnectedWorld, 19 y 20 de febrero de 2020, reúne a más de 80 expositores que muestran las últimas tendencias y desarrollos en el mundo conectado. Entre los más de 170 ponentes, se encuentran el CEO de Bosch, Volkmar Denner y el CDO / CTO de Bosch, Michael Bolle, así como Roland Busch, subdirector general de Siemens, Axel Stepken, presidente del Consejo de Administración de TÜV Süd, y Scott Guthrie, vicepresidente ejecutivo de Microsoft’s Cloud y AI Group. El evento incluye conferencias magistrales, una gran exposición y un hackathon. Este año marca la séptima edición del Bosch ConnectedWorld. Es una de las conferencias internacionales más grandes del mundo dedicada al Internet de las Cosas.
De un vistazo: las pautas del código de ética de IA de Bosch
- Todos los productos IA de Bosch deben reflejar nuestro espíritu "Innovación para tu vida", que combina una búsqueda de innovación con un sentido de responsabilidad social.
- Las decisiones de IA que afectan a las personas no deben tomarse sin un árbitro humano. La IA debe de ser una herramienta para las personas.
- Queremos desarrollar productos IA seguros, robustos y explicables.
- La confianza es uno de los valores fundamentales de nuestra empresa. Queremos desarrollar productos IA en los que confiar.
- Al desarrollar productos de inteligencia artificial, observamos los requisitos legales y nos orientamos a los principios éticos.