Tecnología

"Genial" SI no ayudará a Estados Unidos en la guerra con China: por qué la máscara de caminata es peligrosa para el ejército

Los investigadores han llegado a la conclusión de que la IA "pequeña" en algunos casos es más útil para los militares que los grandes modelos intensivos en energía. Hoy, en el campo de la inteligencia artificial (AI), el principio de "más, el mejor" prevalece, pero un nuevo estudio muestra que tal caminata puede socavar el desarrollo de las tecnologías shi que necesitan los militares estadounidenses ahora y en el futuro. Esto se indica en defensa uno.

Investigadores Gael Varoko de la Universidad de París-Sakle, Alexander Sasha Luchni del Instituto de Quebek y Meredith Wittcker de Signal Foundation en su artículo "La estabilidad, la estabilidad y el precio del paradigma" más "en la IA" estudió la historia de la historia. de formar el principio mencionado en el campo. Descubrieron que esta idea estaba formulada en 2012 en el artículo de profesor de la Universidad de Toronto Alex Kryzhevskaya.

En su trabajo, Alex Kryzhevsk argumentó que grandes cantidades de datos y redes neuronales a gran escala producen resultados mucho mejores para clasificar las imágenes que las más pequeñas. Esta idea fue apoyada por otros investigadores, y luego este enfoque se hizo dominante entre las grandes compañías de IA. "La consecuencia es tanto una explosión de inversión en modelos de IA a gran escala y un salto que lo acompaña en el tamaño de los modelos notables (altamente citados).

La IA generativa, ya sea para imágenes o texto, o para el texto, trajo esta suposición a una nueva Nivel, como dentro de la disciplina de la disciplina de investigación de la IA, así como un componente de la narrativa popular "más, significa mejor" que rodea la IA ", dice el estudio. El material establece que la productividad de los grandes modelos de IA no siempre justifica los recursos necesarios para su operación.

Además, la concentración de esfuerzos en el campo de la IA en un número relativamente pequeño de grandes compañías tecnológicas conlleva riesgos geopolíticos. A pesar del hecho de que el Departamento de Defensa de los Estados Unidos presta atención a los grandes modelos de IA y prosets menos a gran escala, los expertos temen que los estudios futuros en el campo de los IA "pequeños" puedan ser limitados debido a la creciente influencia de las grandes empresas shi.

Un ejemplo es la declaración del ex presidente de Google, Eric Schmidt, quien declaró que las empresas y los gobiernos deberían continuar participando en modelos IA grandes intensivos en energía, independientemente del costo de la energía, ya que "aún no alcanzaremos objetivos climáticos". Al mismo tiempo, los costos ambientales, en particular el consumo de energía, aumentan mucho más rápido que mejorar la productividad de los modelos de IA.

Los expertos señalan que los estudios en el campo de la IA sobre el principio de "más, significa mejor", conducen al estrechamiento y la pérdida de diversidad en esta área. Según Defense One, este estrechamiento puede tener consecuencias negativas para el desarrollo del ejército de IA. El hecho es que los modelos de IA más pequeños pueden ser importantes en lugares donde los recursos de la computadora son pequeños e intermitentes, raros o incluso ausentes.

"A menudo, es el caso que más pequeño, más centrado en las tareas del modelo funcionan mejor que los modelos grandes y de amplio perfil, al resolver tareas específicas debajo de la transmisión", se lee en un artículo separado publicado por un grupo de investigadores de Berkeley . Como ejemplo, los UAV operaban bajo la acción de las HRS, y pequeñas bases en posiciones avanzadas donde la energía es baja y el enlace es débil.

Los operadores pueden encontrar una serie de situaciones en las que un modelo de IA que funciona en una gama relativamente pequeña de datos y no requiere una granja de servidor masiva o una gran cantidad de procesadores gráficos. Estas pueden ser aplicaciones para imágenes de UAV y satélite, así como tecnologías para procesar datos económicos, climáticos, demográficos y otros para planificar operaciones más eficientes y seguras en las ciudades.

"Pero si el sector de investigación de IA da prioridad al gran experto sobre lo pequeño, puede significar menos investigación y menos expertos para enseñar a los operadores cómo crear bien sus propios modelos de IA pequeños", dijo la publicación. Otra consecuencia potencial del desarrollo prioritario de la "gran" IA es la concentración de poder. Solo algunas compañías tienen recursos para crear e implementar modelos grandes.

Ilon Musk menciona un ejemplo, que es uno de los contratistas defensivos más ricos del mundo. Ilon Musk también se convierte en uno de los actores financieros clave en el desarrollo de la futura IA. "El poder privado concentrado sobre la IA crea un segmento pequeño y motivado financieramente de personas que toman decisiones en el campo de la IA.

Debemos considerar cómo tal poder concentrado con la agencia sobre IA centralizada puede formar una sociedad en condiciones más autoritarias", dijeron los investigadores ", dijeron los investigadores", dijeron los investigadores ", dijeron los investigadores", dijeron los investigadores ", dijeron los investigadores" .

Según Defense One, una nueva clase de expertos en IA también comparte la opinión de que la concentración en la IA "grande" es suprimida por enfoques que podrían ser más útiles para grupos específicos. Sí, el CEO de la startup shi sensores útiles Pete Worden dijo a la publicación que la obsesión de la industria y los círculos académicos de AI a gran escala pierden lo que la mayoría de la gente realmente quiere de la IA.

"Los puntos de referencia académicos no están de acuerdo con los requisitos del mundo real. Por ejemplo, muchos clientes simplemente quieren poder extraer los resultados de la información disponible (por ejemplo, las guías de usuario), no generar un nuevo texto en respuesta a la pregunta, pero los investigadores lo hacen. No lo considera interesante ", dijo Pit. Worden.

Por su parte, Drew Breunig, exclusivo de datos sobre datos y clientes estratégicos en PlaceIQ, que ahora trabaja precisamente, agregó que es poco probable que las altas expectativas de muchas personas en grandes modelos de IA se justifiquen. Drew Breunig divide AI en tres grupos. El primero es los "dioses", que define como "superar piezas de IA" y "reemplazar a las personas que hacen muchas cosas diferentes sin supervisión".

Debajo de la jerarquía están los "aprendices", que él describe como "detalles específicos del área temática que ayudan a los expertos con un trabajo duro y agotador, haciendo lo que el aprendiz podría hacer". Estos modelos están bajo la supervisión de expertos. La tercera, la forma más local de la IA, Drew Breunig llamó "engranajes". Estos son modelos para la misma tarea, con una resistencia de error muy baja que funcionan sin supervisión en aplicaciones o transportadores.

Según el experto, este es el tipo más común de IA utilizada por las empresas: todas las plataformas grandes han cambiado a la ayuda de las empresas en la descarga de sus propios datos para configurar modelos de IA, lo que puede funcionar bien. "¡Una cosa genial para centrarse en los engranajes es que puedes hacer tantos con modelos pequeños! Un modelo pequeño, configurado para una cosa, puede superar el modelo general gigante al lograr la misma tarea", resumió el experto.