Apple firma el compromiso de la Casa Blanca sobre seguridad en inteligencia artificial

Apple firmó el compromiso voluntario de la Casa Blanca para desarrollar una inteligencia artificial segura, confiable y confiable, según un comunicado de prensa el viernes. La compañía pronto lanzará su oferta de inteligencia artificial generativa, Apple Intelligence, en sus productos principales, poniendo la inteligencia artificial generativa frente a los 2 mil millones de usuarios de Apple.

Apple se une a otras 15 empresas tecnológicas, incluidas Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, que se comprometieron a seguir las reglas básicas de la Casa Blanca para desarrollar inteligencia artificial generativa en julio de 2023. En ese momento, Apple no había revelado cuán profundamente planeaba integrar la inteligencia artificial en iOS. Pero escuchamos a Apple alto y claro en la WWDC en junio: está apostando todo por la inteligencia artificial generativa, comenzando con una asociación que incrusta ChatGPT en el iPhone. Como blanco frecuente de reguladores federales, Apple quiere señalar temprano que está dispuesto a cumplir con las reglas de la Casa Blanca sobre la inteligencia artificial, un posible intento de ganarse el favor antes de que estallen futuras batallas regulatorias en inteligencia artificial.

Pero, ¿qué tanto peso tienen los compromisos voluntarios de Apple con la Casa Blanca? No mucho, pero es un comienzo. La Casa Blanca llama a esto el "primer paso" hacia que Apple y otras 15 compañías de inteligencia artificial desarrollen inteligencia artificial que sea segura, confiable y confiable. El segundo paso fue la orden ejecutiva de inteligencia artificial del presidente Biden en octubre, y hay varios proyectos de ley que actualmente están avanzando en legislaturas federales y estatales para regular mejor los modelos de inteligencia artificial.

Bajo el compromiso, las empresas de inteligencia artificial prometen realizar pruebas de estrés en los modelos de inteligencia artificial antes de su lanzamiento público y compartir esa información con el público. El compromiso voluntario de la Casa Blanca también pide a las empresas de inteligencia artificial tratar confidencialmente los pesos de los modelos de inteligencia artificial no publicados. Apple y otras empresas acuerdan trabajar en los pesos de los modelos de inteligencia artificial en entornos seguros, limitando el acceso a los pesos del modelo a la menor cantidad posible de empleados. Por último, las empresas de inteligencia artificial acuerdan desarrollar sistemas de etiquetado de contenido, como marcas de agua, para ayudar a los usuarios a distinguir qué es y qué no es generado por inteligencia artificial.

Por separado, el Departamento de Comercio dice que pronto publicará un informe sobre los posibles beneficios, riesgos e implicaciones de los modelos de fundación de código abierto. La inteligencia artificial de código abierto se está convirtiendo cada vez más en un campo de batalla regulatorio políticamente cargado. Algunos grupos quieren limitar la accesibilidad de los pesos del modelo de inteligencia artificial a modelos de inteligencia artificial potentes en nombre de la seguridad. Sin embargo, hacerlo podría limitar significativamente el ecosistema de inicio de inteligencia artificial e investigación. La postura de la Casa Blanca aquí podría tener un impacto significativo en la industria de inteligencia artificial en su conjunto.

La Casa Blanca también señaló que las agencias federales han progresado significativamente en las tareas establecidas por la orden ejecutiva de octubre. Hasta la fecha, las agencias federales han contratado a más de 200 profesionales de inteligencia artificial, otorgado acceso a más de 80 equipos de investigación a recursos computacionales y lanzado varios marcos para el desarrollo de inteligencia artificial (al gobierno le encantan los marcos).