Operaciones de coma flotante por segundo

Operaciones de coma flotante por segundo
el rendimiento del equipo
Nombre flops
megaflops/megaofps 106
gigaflops/gigaofps 109
teraflops/teraofps 1012
petaflops/petaofps 1015
exaflops/exaofps 1018
zettaflops/zettaofps 1021
yottaflops/yottaofps 1024

En informática, las operaciones de coma flotante por segundo son una medida del rendimiento de una computadora, especialmente en cálculos científicos que requieren un gran uso de operaciones de coma flotante. Es más conocido su acrónimo, FLOPS, por el inglés floating point operations per second. FLOPS, al ser un acrónimo, no debe nombrarse en singular como FLOP, ya que la S final alude a second (o segundo) y no al plural.

Las computadoras exhiben un amplio rango de rendimientos en coma flotante, por lo que a menudo se usan unidades mayores que el FLOPS. Los prefijos estándar del SI pueden ser usados para este propósito, dando como resultado megaFLOPS (MFLOPS, 106 FLOPS), gigaFLOPS (GFLOPS, 109 FLOPS), teraFLOPS (TFLOPS, 1012 FLOPS), petaFLOPS (PFLOPS, 1015 FLOPS), exaFLOPS (EFLOPS, 1018 FLOPS).

Contenido

Rango de rendimiento

Una computadora moderna de escritorio, que usa por ejemplo un procesador Pentium 4 o Athlon 64, típicamente opera a más de 3 GHz, provee de un desempeño computacional del rango de unos cuantos GFLOPS. Aún algunas consolas de videojuegos del final de los años noventa y principios del 2000, tales como Gamecube y Dreamcast, tuvieron un rendimiento mayor a un GFLOPS.

La primera supercomputadora, Cray-1 fue puesta en marcha en el Laboratorio Nacional de Los Álamos en 1976. La Cray-1 era capaz de operar a 80 MFLOPS. En poco más de treinta años desde entonces, la velocidad computacional de las supercomputadoras es más de un millón de veces mayor.

La computadora más rápida del mundo hasta la fecha (20 de junio de 2011) [1] es el Ordenador K japonés. Se encuentra en el Instituto RIKEN, en el Centro Avanzado para las Ciencias de la Computación (AICS), en Kobe (Japón), y combina 68.544 CPU (En noviembre de 2011 se incrementó a 88.128) tipo SPARC64 VIIIfx cada una con ocho núcleos, lo que arroja un total de 548.352 núcleos. Es capaz de realizar más de ocho mil billones de cálculos por segundo (8 PetaFLOPS). Recientemente fue actualizado y supera los 10 PetaFLOPS.

La computación distribuida usa internet para conectar computadoras personales y lograr un efecto similar; ha permitido a SETI@Home, el mayor de dichos proyectos, computar a una velocidad de más de 100 TFLOPS. Folding@home ha ganado terreno y actualmente ha logrado una velocidad sostenida de 175 TFLOPS convirtiéndola en una de las supercomputadoras más poderosas del mundo. Otros proyectos similares son Einstein@Home (60 TFLOPS) y climateprediction.net.

Las calculadoras de bolsillo se encuentran al otro extremo del espectro de rendimiento. Cada solicitud a una calculadora típica requiere únicamente de una operación. Así que raramente existe alguna razón para que el tiempo de respuesta exceda el del propio usuario. Cualquier respuesta menor a 0,1 segundos es percibida por el usuario humano como instantánea, de manera que una calculadora simple podría decirse que opera a 10 FLOPS.[cita requerida]

Las comparaciones... ¿odiosas?

El cerebro humano procesa información biológica, y lo que se ha puesto de manifiesto ante nuestro consciente como lógica computacional, emerge de otras propiedades naturales del cerebro que comparte, junto con otras muchas (emocionales, empáticas, sociales, etc). El estudio y meditación de la lógica computacional nos ha llevado muchos cientos de años perfeccionar (siendo una de las primeras herramientas computacionales, el ábaco). La larga historia del hombre, en comparación con la historia computacional, hace evidente que el proceso de coma flotante es un constructo mental que nace por la necesidad de compartir información.

La poca especialización del cerebro en la lógica computacional (que no quiere decir que no sea capaz de procesar, pero para nada es su especialidad), queda de manifiesto en operaciones matemáticas, tales como una división con diez dígitos significativos, que por promedio puede llegar a consumir unos quince minutos, realizándola a papel y lápiz. Comparativamente hablando, el hombre ha logrado especializar maquinaria para tales efectos, y comparando una máquina computacional a lo que el cerebro en su naturaleza realiza, el cerebro opera en el rango de mili FLOPS.

No obstante, se estima que el poder de cómputo requerido para procesar olores, sabores, tacto, visión y coordinación motora es del orden de 10 PFLOPS (10 veces el poder de cómputo de «Roadrunner»). Y posiblemente elevemos el rango de computo unas 100 veces más, si incluimos datos sociales, empáticos y emocionales.

Es un hecho constatado por el pasado de la innovación tecnologica, que en un futuro muy cercano aparecerán computadoras que superen la capacidad de proceso de información del cerebro, pero al igual que sucede con una casa: es cuestión de tiempo hacerse una más grande, pero lo importante no es lo grande, sino lo capaz que sea uno mismo de gestionarla en paz y seguridad; así, en lo referente al proceso de datos, lo cuenta no es la velocidad de proceso, sino la distribución, orientación y orquestación del mismo. Así pues, es más importante a nivel de investigación y desarrollo, encontrar una máquina capaz de orquestar el conocimiento, que una que sea capaz de procesar muchos datos, de dar muchos resultados, pero incapaz de orquestar el medio conforme a un patrón origen.

Es un hecho biológico que, la capacidad de proceso de datos de una bacteria es inferior a la de la super computadora más potente de la actualidad. Es paradógico que, aun no se haya podido reproducir ni en hardware ni en sofware, el comportamiento de una bacteria (al completo, incluyendo sus capacidades de reproducción), a lo que nos lleva a concluir que una bactería sí orquesta la información que procesa, dentro de sus límites. Si continuamos subiendo en escala, nos vamos a los hongos, las amebas, corales... y algo mas accesible en comparación, el cerebro de un colibrí. Todos ellos capaces de procesar la información a niveles similares a los de una supercomputadora de nuestro siglo (en cuanto a velocidad). El caso es ¿hemos logrado que sean comparables, no en cuanto calidad (que eso se da por supuesto), sino a cualidad?.

Por ejemplo, como ya se ha comentado con anterioridad, la capacidad del cerebro humano en cuanto al proceso de informacion computacional en coma flotante es ridícula, pero ¿cuanta energía consume el cerebro al completo? ¿de todo ello, cuanto se asigna al neocortex, de todo eso, cuanto consume el lóbulo prefrontal, de todo eso, cuanto consume el área metabólica que orquesta los cálculos computacionales en coma flotante?. Si el resultado es imposible de reproducir en cuanto a consumo electrico y velocidad de proceso, dado que la semiconducción requiere de unos mínmos para que un conjunto de semiconductores tenga un comportamiendo sujeto a la lógica booleana, y así poder hablar de operaciones útiles para que el recurso humano aprobeche dicho trabajo algoritmico... ¿cuanta información sería capaz de procesar un, teorico cerebro humano, si elevara el consumo de energía en las áreas especializadas, a lo que el silicio demanda en la actualidad para una operación en coma flotante? ¿es realmente, el consumo de energia lo que hace que el proceso de datos en un cerebro sea más veloz? ¿no es más bien que, cuanto más especializada es un área, menos consume y mas veloz procesa los datos? ¿no es esto indicativo, que más bien que el proceso nativo del cálculo sea importante, lo que da peso a la resolución del problema en cuanto a velocidad son las áreas especulativas y de predicción? ¿no es el caso que, una vez hecha de la experiencia un hábito, solo son los errores y fallos los que provocan una ralentización del proceso, al buscar soluciones similares, pero cuyos procesos no están contemplados en las áreas predictivas y especulativas?.

Esto deja en evidencia que, para orquestar el medio con datos únicamente computacionales, no se requiera demasiada velocidad de proceso, y que con la actual ya se pueden crear modelos robóticos capaces de orquestar los datos; solo que falta el diseño de hardware, firmware y software necesario que dote de sinfonía a las notas expuestas en la partitura de la realidad.

FLOPS como medida de rendimiento

Para que se pueda usar el FLOPS como medida de rendimiento de coma flotante una referencia estándar debe ser establecida para todas las computadoras de interés. Uno de ellos es el estándar LINPACK.

Los FLOPS por sí solos no son un muy útil estándar para computadoras modernas. Existen muchos otros factores de rendimiento tales como I/O (Entrada/Salida), comunicación inter procesador, coherencia del cache y jerarquía de memoria. Esto significa que las computadoras en general son sólo capaces de una fracción del pico teórico en FLOPS, obtenido adicionando el pico teórico en FLOPS de cada uno de los componentes del sistema. Aún cuando se trabaje en problemas grandes y altamente paralelos, su rendimiento será irregular, debido en gran medida a efectos residuales de la ley de Amdahl. Por tanto, los estándares efectivos medirán rendimiento tanto de FLOPS actuales —tiempo real— como de FLOPS sostenidos.

Para aplicaciones ordinarias (no científicas) las operaciones sobre enteros (medidos en MIPS) son mucho más comunes. De lo anterior se deduce que medir el rendimiento en FLOPS no predice con precisión la rapidez con la que un procesador realizará cualquier tarea. Sin embargo, para muchas aplicaciones científicas, como el análisis de datos, el rendimiento en FLOPS es una medida efectiva.

FLOPS, GPU y consolas de videojuegos, entre otros

Frecuentemente se publican cifras astronómicas en FLOPS para tarjetas de video y consolas de videojuegos. En comparación, un computador de propósito general tendrá un rendimiento de unos cuantos GFLOPS si se considera únicamente su CPU.

Sin embargo, estas cifras deben ser tratadas con precaución, ya que no son comparables «uno a uno» con FLOPS de un computador totalmente programable de propósito general. Estas cifras se basan en el rendimiento total del sistema (CPU + GPU).

La mayor parte del rendimiento en FLOPS de una consola de videojuegos proviene de su GPU, que es un procesador de vectores altamente ductilizado o segmentado («pipelined» en inglés) optimizado para operaciones gráficas, con muy limitada programabilidad. Esto es posible porque las gráficas en 3D son un ejemplo clásico de un problema altamente paralelizable. Esto significa que el problema puede ser fácilmente dividido entre diferentes unidades de ejecución y «ductos», permitiendo una alta ganancia en velocidad que será obtenida de «escalar» el número de compuertas lógicas en vez de únicamente la velocidad de reloj.

Esta capacidad de cómputo en un computador permite por ejemplo:


Wikimedia foundation. 2010.

Игры ⚽ Нужно решить контрольную?

Mira otros diccionarios:

  • Linpack — Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas. Puedes añadirlas así o avisar …   Wikipedia Español

  • ILLIAC IV — UC del computador paralelo ILLIAC IV El ILLIAC IV fue uno de los más infames supercomputadores de la historia. Uno de la serie de máquinas de investigación, los ILLIACs de la Universidad de Illinois, el diseño del ILLIAC IV se caracterizó por un… …   Wikipedia Español

  • Computación cuántica — La esfera de Bloch es una representación de un qubit, el bloque de construcción fundamental de los computadores cuánticos. La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits… …   Wikipedia Español

  • Ural (computadora) — Para otros usos de este término, véase Ural (desambiguación). Vista de la computadora Ural 1 Las Ural fue una serie de computadoras construidas en la Unión Soviética. Contenido …   Wikipedia Español

  • Historia del hardware de computador (1960-presente) — La historia del hardware de computador comenzando en 1960 está marcada por la conversión desde el tubo de vacío a los dispositivos de estado sólido como el transistor y posteriormente el circuito integrado. Por 1959 los transistores discretos… …   Wikipedia Español

  • Universidad Técnica de Dresde — Technische Universität Dresden Universidad Técnica de Dresde Lema «Wissen schafft Brücken.» Tipo Pública …   Wikipedia Español

  • Lenovo — Group Fundación 1984 Sede Hong Kong, Raleigh (Carolina del Norte, Estados Unidos), Pekín (China) …   Wikipedia Español

  • Microprocesador — Procesador AMD Athlon 64 X2 conectado en el zócalo de una placa base. El microprocesador o simplemente procesador, es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele asociar por analogía… …   Wikipedia Español

  • Xenos — es un procesador digital (GPU) producido por ATI, para la videoconsola Xbox 360. El procesador se diseño bajo el nombre clave C1 es en muchos sentidos la precursora de la GPU R600, primera GPU de AMD/ATI con arquitectura de shading unificada en… …   Wikipedia Español

  • FLOPS — Saltar a navegación, búsqueda el rendimiento del equipo Nombre flops megaflops 106 gigaflops 109 teraflops 1012 petaflops 1015 exaflops …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”