Terminos Informaticos # 1

1-Software: Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computadoras.
2-Diferencia entre software y programa: En realidad no existen una diferencia entre uno y el otro excepto que uno estas en español “programa” y el otro en ingles “software”, a veces se le denominas software al conjunto general de programas, que más genéricamente se refiere al equipamiento lógico o soporte lógico de una computadora digital.
3-¿Qué es lenguaje de maquina?; Lenguaje de máquina es el sistema de códigos directamente interpretable por un circuito micro programable, como el microprocesador de una computadora o el micro controlador de un autómata. Este lenguaje está compuesto por un conjunto de instrucciones que determinan acciones a ser tomadas por la máquina.
4-¿Qué es lenguaje ensamblador?; Es un tipo de lenguaje de bajo nivel utilizado para escribir programas informáticos, y constituye la representación más directa del código máquina específico para cada arquitectura de computadoras.
5-¿Qué es un lenguaje de programación?; Un  lenguaje  de  programación es  aquel elemento dentro de la informática que nos permite crear programas mediante un conjunto de instrucciones, operadores y reglas de sintaxis; que pone a disposición del programador para que este pueda comunicarse con los dispositivos hardware y software existentes.
6-Herramienta de Programación: Las herramientas de programación, son aquellas que permiten realizar aplicativos, programas, rutinas, utilitarios y sistemas para que la parte física del computador u ordenador, funcione y pueda producir resultados.
Entre otras herramientas de programación encontramos librerías y componentes, dados por algunos lenguajes de programación como son el C++ y Delphi.
Otras herramientas de programación son los lenguajes de programación, que nos permiten crear rutinas, programas y utilitarios.
7-Lenguaje orientada a objeto: Se le llama así a cualquier lenguaje de programación que implemente los conceptos definidos por la programación orientada a objetos. Siguiendo esa idea, cualquier lenguaje que permita la definición de tipos de datos, de operaciones nuevas sobre esos tipos de datos, y de instanciar el tipo de datos podría ser considerado orientado a objetos.
8-¿Qué es encapsulación?; Encapsulación es la habilidad de una parte de un programa para ocultar sus datos al resto del código, impidiendo así accesos incorrectos o conflictos con los nombres de otras variables.
9-Analisis y diseño orientado a objeto: Análisis y diseño orientado a objetos (ADOO) es un enfoque de la ingeniería de software que modela un sistema como un grupo de objetos que interactúan entre sí. Este enfoque representa un dominio en términos de conceptos compuestos por verbos y sustantivos, clasificados de acuerdo a su dependencia funcional.
10-Interfaz de Usuario: La interfaz de usuario es un conjunto de protocolos y técnicas para el intercambio de información entre una aplicación computacional y el usuario ([Larson, 1992]). La IU es responsable de solicitar comandos al usuario, y de desplegar los resultados de la aplicación de una manera comprensible. La IU no es responsable de los cálculos de la aplicación, ni del almacenamiento, recuperación y transmisión de la información. Es importante señalar que dentro del proceso de creación de la IU existen cuatro diferentes tipos de personas involucradas. La primera persona, y probablemente la más importante, es el usuario final o simplemente usuario. El usuario es quien va a utilizar el programa final. La segunda persona es aquella que crea la interfaz de usuario. Esta persona es conocida como diseñador o arquitecto de la interfaz de usuario. Trabajando muy cercanamente con el diseñador estará el programador de la aplicación, este será el encargado de la escritura del software del resto de la aplicación. Muy frecuentemente el diseñador utilizará herramientas especiales para la creación del software de la IU (como los toolkits2.1), y estas herramientas son elaboradas por el creador de herramientas.
11-¿Qué es polimorfismo?; En programación orientada a objetos el polimorfismo se refiere a la capacidad para que varias clases derivadas de una antecesora utilicen un mismo método de forma diferente.
Como se mencionó anteriormente, el concepto de polimorfismo se puede aplicar tanto a funciones como a tipos de datos. Así nacen los conceptos de funciones polimórficas y tipos polimórficos. Las primeras son aquellas funciones que pueden evaluarse o ser aplicadas a diferentes tipos de datos de forma indistinta; los tipos polimórficos, por su parte, son aquellos tipos de datos que contienen al menos un elemento cuyo tipo no está especificado.
Se puede clasificar el polimorfismo en dos grandes clases:
Polimorfismo dinámico (o polimorfismo paramétrico) es aquél en el que el código no incluye ningún tipo de especificación sobre el tipo de datos sobre el que se trabaja. Así, puede ser utilizado a todo tipo de datos compatible.
Polimorfismo estático (o polimorfismo ad hoc) es aquél en el que los tipos a los que se aplica el polimorfismo deben ser explicitados y declarados uno por uno antes de poder ser utilizados.
En relación a los virus informáticos un código polimórfico o polimorfismo es aquel que se sirve de un motor polimórfico para mutarse a sí mismo mientras mantiene su algoritmo original intacto. Esta técnica es utilizada comúnmente por virus informáticos y gusanos para ocultar su presencia.
Muchos productos antivirus y sistemas de detección de intrusiones intentan localizar programas maliciosos mediante búsquedas en los archivos de la computadora y en los paquetes enviados a través de una red informática. Si ese software encuentra patrones de código que coinciden con una amenaza conocida toman los pasos apropiados para neutralizar esa amenaza.
Los algoritmos polimórficos dificultan la detección de ese código malicioso modificándolo constantemente
.
En la mayoría de casos los programas maliciosos que usan de técnicas de polimorfismo lo hacen conjuntamente con técnicas de cifrado, en esos casos el programador malicioso usa cifrado para evitar la detección de la mayor parte del código, y técnicas de polimorfismo para modificar la propia rutina de descifrado.
El primer caso de virus informático polimórfico conocido fue el 1260 creado por Mark Washburn en 1990. Otros virus informáticos de esta clase son el creado por Dark Avenger en 1992 (Dark Avenger publicaría más tarde su famosos Mutation engine, un motor polimórfico que muchos otros creadores de virus usarían más tarde en sus creaciones), y ILoveYou en 2000.
12-¿Qué es tiempo de desarrollo?; El tiempo de desarrollo del proyecto es indefinido, puede mantenerse durante el período que se considere necesario, la ventaja que tiene es que se pueden involucrar distintas comunidades donantes y receptoras, el objetivo inicial sería lograr la capacitación de los mediadores en los aspectos técnicos necesarios para llegar a una instalación de computadores con software Libre.
13-¿Qué es protocolo?; Protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red. Un protocolo es una regla o estándar que controla o permite la comunicación en su forma más simple, un protocolo puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación.
14-¿Quién es George Boole?; George Boole Nació el 2 de noviembre de 1815 – y muere el 8 de diciembre de 1864, fue un matemático y filósofo británico. Como inventor del álgebra de Boole, que marca los fundamentos de la aritmética computacional moderna, Boole es considerado como uno de los fundadores del campo de las Ciencias de la Computación. En 1854 publicó "An Investigation of the Laws of Thought" en el que desarrollaba un sistema de reglas que le permitían expresar, manipular y simplificar problemas lógicos y filosóficos cuyos argumentos admiten dos estados (verdadero o falso) por procedimientos matemáticos. Se podría decir que es el padre de las operaciones lógicas y gracias a su álgebra hoy en día es posible manipular operaciones lógicas.
15-¿Quién es Norbert Wiener? Norbert Wiener (nace el 26 de noviembre de 1894, Columbia (Misuri) – y muere el 18 de marzo de 1964, Estocolmo, Suecia) fue un matemático estadounidense, conocido como el fundador de la cibernética. Acuñó el término en su libro Cibernética o el control y comunicación en animales y máquinas, publicado en 1948.
Durante la Segunda Guerra Mundial, introduce en la ciencia los conceptos de feedback o retroalimentación, y de cantidad de información, con lo que se convierte en precursor de la teoría de la comunicación o la psicología cognitiva. Posteriormente, en 1956, formulará parte del concepto de Causalidad de Wiener-Granger o Test de Wiener-Granger: Desarrollado por el Premio Nobel de Economía (año 2003) Clive W. J. Granger (1934- ), a partir de las indicaciones de Norbert Wiener. Es un test consistente en comprobar si los resultados de una variable sirven para predecir a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se tiene que comparar y deducir si el comportamiento actual y el pasado de una serie temporal A predice la conducta de una serie temporal B. Si ocurre el hecho, se dice que “el resultado A” causa en el sentido de Wiener-Granger “el resultado B”; el comportamiento es unidireccional. Si sucede lo explicado e igualmente “el resultado B” predice “el resultado A”, el comportamiento es bidireccional, entonces “el resultado A” causa “el resultado B”, y “el resultado B” causa “el resultado A”.
16-¿Qué es API?; Una interfaz de programación de aplicaciones o API (del inglés Application Programming Interface) es el conjunto de funciones y procedimientos (o métodos, en la programación orientada a objetos) que ofrece cierta biblioteca para ser utilizado por otro software como una capa de abstracción. Son usadas generalmente en las bibliotecas (también denominadas comúnmente "librerías").
17-¿Quién es Aristóteles?
384 a.C.          Nace en Estagira, Macedonia (de ahí su sobrenombre de El Estagirita).
367 a.C.          Se traslada a Atenas para estudiar en la Academia de Platón, donde más tarde ejerce como maestro.
347 a.C.          Muere Platón.
348 a.C.          Se traslada a Axos, donde sirve a Hermias de Atarneo. Durante esta etapa contrae matrimonio con Pitias, sobrina de Hermias, con la que tuvo una hija. Tras la muerte prematura de Pitias se casa con Erpilis, con quien tiene un hijo, Nicómaco, al que dedicará su Ética para Nicómaco. También redacta su Política.
345 a.C.          Tras el asesinato de Hermias, se instala en Mitilene (Lesbos). Se dedica al estudio de la biología con Teofrasto.
343 a.C.          Filipo de Macedonia le contrata como tutor de su hijo Alejandro.
334 a.C.          Al acceder Alejandro al trono, Aristóteles regresa a Atenas y funda el Liceo. En esta etapa produce la mayor parte de su obra.
323 a.C.          La muerte de Alejandro levanta un oleada anti macedónica en Atenas que obliga a Aristóteles a exiliarse.
322 a.C.          Muere en la isla de Chalcis, tierra de su madre, a los sesenta y dos años de edad.
Aristóteles se ha significado como uno de los filósofos más importantes de todos los tiempos y ha sido uno de los pilares del pensamiento occidental. Sus obras, escritas hace más de dos mil trescientos años, siguen ejerciendo una influencia notable sobre innumerables pensadores contemporáneos y continúan siendo objeto de estudio por parte de múltiples especialistas. La filosofía de Aristóteles constituye, junto a la de su maestro Platón, el legado más importante del pensamiento de la Grecia antigua.
Pese a ser discípulo de Platón, Aristóteles se distanció de las posiciones idealistas, para elaborar un pensamiento de carácter naturalista y realista. Frente a la separación radical entre el mundo sensible y el mundo inteligible planteada por las doctrinas platónicas, defendió la posibilidad de aprehender la realidad a partir de la experiencia. Así pues, en contra de las tesis de su maestro, consideró que las ideas o conceptos universales no deben separarse de las cosas, sino que estaban inmersas ellas, como forma específica a la materia. Por estos motivos, otorgó gran importancia a los estudios científicos y a la observación de la naturaleza. Sin embargo, las preocupaciones de Aristóteles no se dirigieron únicamente al estudio especulativo de las cosas y sus causas, sino que también se centraron en cuestiones de lógica formal, moral, política y estética. De acuerdo con las fuentes antiguas, el filósofo griego escribió 170 obras, aunque sólo 30 se han conservado hasta nuestros días.
18- Lógica de Aristóteles: La lógica aristotélica es la tradición lógica basada en el trabajo del filósofo griego Aristóteles, primer pensador en formalizar el sistema lógico de tal manera que sus propuestas han trascendido hasta nuestros días. Aristóteles planteó sus ideas en varias obras, reunidas posteriormente bajo el nombre de Órganon (órgano, herramienta), para difundir su conocimiento sobre las leyes del razonamiento, argumentando que estas eran vitales para adentrarse en el mundo de la filosofía.
La lógica aristotélica supone que la mente reproduce sólo la realidad, la existencia de las cosas tal y como son, por ello es una ciencia objetiva que se dedica a estudiar conceptos, desglosándolos en predicables y predicamentos. La lógica analiza juicios y formas de razonamiento y su manera de expresar resultados es el silogismo o razonamiento deductivo categórico.
El elemento básico es el término o concepto. Este representa un objeto en la mente del hombre de manera que no pueda ser afectado por los sentidos, la memoria o la mente. Un concepto tiene comprensión (características del objeto) y extensión (hace alusión la cantidad de sujetos a los que el concepto puede aplicarse).
La unión entre los términos o conceptos es una proposición. Según Aristóteles, habría cuatro formas básicas de proposiciones afirmativas:
“Todo A es B” (universal afirmativo).
“Ningún A es B” (universal negativo).
“Algunos A son B” (particular afirmativo).
“Algunos A no son B” (particular negativo).
Las letras sustituyen a palabras comunes como “perro”, “animal de cuatro patas” o 'cosa viviente', llamadas “términos”.
A partir de las proposiciones se construyen los silogismos o razonamientos. Un silogismo bien formulado consta de dos proposiciones que fungen como premisas y de una conclusión, debiendo tener cada premisa un término en común con la conclusión y un segundo término relacionado con la otra premisa. En lógica clásica se formulan reglas por las que todos los silogismos bien construidos se identifican como formas válidas o no válidas de argumentación.
19-¿Qué es la lógica?; Disciplina que estudia los principios formales del conocimiento humano, es decir, las formas y las leyes más generales del pensamiento humano considerado puramente en sí mismo, sin referencia a los objetos. Los problemas principales de la lógica son las doctrinas del concepto, del juicio, del silogismo y del método.
20- Lógica Difusa: La lógica difusa o lógica heurística se basa en lo relativo de lo observado como posición diferencial. Este tipo de lógica toma dos valores aleatorios, pero contextualizados y referidos entre sí. Así, por ejemplo, una persona que mida 2 metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en 1 metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.
21- Lenguaje SQL: El lenguaje de consulta estructurado o SQL (por sus siglas en inglés structured query language) es un lenguaje declarativo de acceso a bases de datos relacionales que permite especificar diversos tipos de operaciones en éstas. Una de sus características es el manejo del álgebra y el cálculo relacional permitiendo efectuar consultas con el fin de recuperar -de una forma sencilla- información de interés de una base de datos, así como también hacer cambios sobre ella.
Los orígenes del SQL están ligados a las de las bases de datos relacionales. En 1970 E. F. Codd propone el modelo relacional y asociado a éste un sublenguaje de acceso a los datos basado en el cálculo de predicados.
Basándose en estas ideas, los laboratorios de IBM definen el lenguaje SEQUEL (Structured English QUEry Language) que más tarde sería ampliamente implementado por el sistema de gestión de bases de datos (SGBD) experimental System R, desarrollado en 1977 también por IBM. Sin embargo, fue Oracle quien lo introdujo por primera vez en 1979 en un programa comercial.
El SEQUEL terminaría siendo el predecesor de SQL, siendo éste una versión evolucionada del primero. El SQL pasa a ser el lenguaje por excelencia de los diversos sistemas de gestión de bases de datos relacionales surgidos en los años siguientes y es por fin estandarizado en 1986 por el ANSI, dando lugar a la primera versión estándar de este lenguaje, el "SQL-86" o "SQL1". Al año siguiente este estándar es también adoptado por la ISO.
Sin embargo, este primer estándar no cubre todas las necesidades de los desarrolladores e incluye funcionalidades de definición de almacenamiento que se consideraron suprimir. Así que en 1992 se lanza un nuevo estándar ampliado y revisado del SQL llamado "SQL-92" o "SQL2".
En la actualidad el SQL es el estándar de facto de la inmensa mayoría de los SGBD comerciales. Y, aunque la diversidad de añadidos particulares que incluyen las distintas implementaciones comerciales del lenguaje es amplia, el soporte al estándar SQL-92 es general y muy amplio.
22- ¿Qué es Interface o Interfaz?; Es el elemento de comunicación que facilita el intercambio de datos, como por ejemplo el teclado, que es un tipo de interface entre el usuario y la computadora. En software, es la parte de un programa que permite el flujo de información entre un usuario y la aplicación, o entre la aplicación y otros programas o periféricos. Esa parte de un programa está constituida por un conjunto de comandos y métodos que permiten estas intercomunicaciones. Interfaz también hace referencia al conjunto de métodos para lograr interactividad entre un usuario y una computadora. Por ejemplo, el monitor, el teclado y el mouse, son interfaces entre el usuario y el ordenador.
23- ¿Qué es ABI?; ABI (application binary interface - interfaz binaria de aplicación) describe la interfaz de bajo nivel entre una aplicación y el sistema operativo, entre una aplicación y sus bibliotecas, o entre partes componentes de una aplicación. ABI permite que un código objeto compilado funcione sin cambios sobre cualquier sistema usando un ABI compatible.
24-¿Qué es OLTP?; OLTP es la sigla en inglés de Procesamiento de Transacciones En Línea (Online Transaction Processing) es un tipo de sistemas que facilitan y administran aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones (gestor transaccional). Los paquetes de software para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas con una red informática distribuida.
25-¿Qué es Datawarehouse?; Un Datawarehouse es una base de datos corporativa que se caracteriza por integrar y depurar información de una o más fuentes distintas, para luego procesarla permitiendo su análisis desde infinidad de perspectivas y con grandes velocidades de respuesta. La creación de un datawarehouse representa en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para implantar una solución completa y fiable de Business Intelligence.
La ventaja principal de este tipo de bases de datos radica en las estructuras en las que se almacena la información (modelos de tablas en estrella, en copo de nieve, cubos relacionales... etc.). Este tipo de persistencia de la información es homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los sistemas operacionales).
26-¿Qué es un Data Mart?; Un Datamart es una base de datos departamental, especializada en el almacenamiento de los datos de un área de negocio específica. Se caracteriza por disponer la estructura óptima de datos para analizar la información al detalle desde todas las perspectivas que afecten a los procesos de dicho departamento. Un datamart puede ser alimentado desde los datos de un datawarehouse, o integrar por sí mismo un compendio de distintas fuentes de información. Por tanto, para crear el datamart de un área funcional de la empresa es preciso encontrar la estructura óptima para el análisis de su información, estructura que puede estar montada sobre una base de datos OLTP, como el propio datawarehouse, o sobre una base de datos OLAP. La designación de una u otra dependerá de los datos, los requisitos y las características específicas de cada departamento.
27-¿Qué es Algebra Booleana?; El álgebra booleana es un sistema matemático deductivo centrado en los valores cero y uno (falso y verdadero). Un operador binario " º " definido en éste juego de valores acepta un par de entradas y produce un solo valor booleano, por ejemplo, el operador booleano AND acepta dos entradas booleanas y produce una sola salida booleana. En informática y matemática, es una estructura algebraica que esquematiza las operaciones lógicas Y, O, NO y Si (AND, OR, NOT, IF), así como el conjunto de operaciones unión, intersección y complemento. Se denomina así en honor a George Boole (2 de noviembre de 1815 a 8 de diciembre de 1864), matemático inglés que fue el primero en definirla como parte de un sistema lógico a mediados del siglo XIX. El álgebra de Boole fue un intento de utilizar las técnicas algebraicas para tratar expresiones de la lógica proposicional. En la actualidad, el álgebra de Boole se aplica de forma generalizada en el ámbito del diseño electrónico. Claude Shannon fue el primero en aplicarla en el diseño de circuitos de conmutación eléctrica biestables, en 1948.
28-¿Qué es lenguaje de alto nivel?; Lenguaje de programación en el que las instrucciones enviadas para que el ordenador ejecute ciertas órdenes son similares al lenguaje humano. Dado que el ordenador no es capaz de reconocer estas órdenes, es necesario el uso de un intérprete que traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el sistema pueda entender.
29-¿lenguaje de bajo nivel?; Lenguaje de programación que el ordenador puede entender a la hora de ejecutar programas, lo que aumenta su velocidad de ejecución, pues no necesita un intérprete que traduzca cada línea de instrucciones.
30-¿Qué es ciencia ficción?; La ciencia ficción es la denominación popular con que se conoce a uno de los géneros derivados de la literatura de ficción, junto con la literatura fantástica y la narrativa de terror. Es un género especulativo que relata acontecimientos posibles desarrollados en un marco espacio-temporal puramente imaginario, cuya verosimilitud se fundamenta narrativamente en los campos de las ciencias físicas, naturales y sociales. La acción puede girar en torno a un abanico grande de posibilidades (viajes interestelares, conquista del espacio, consecuencias de una hecatombe terrestre o cósmica, evolución humana sobrevenidas por mutaciones, evolución de los robots, realidad virtual, existencia de civilizaciones alienígenas, etc.). Esta acción puede tener lugar en un tiempo pasado, presente o futuro, o, incluso, en tiempos alternativos ajenos a la realidad conocida, y tener por escenario espacios físicos (reales o imaginarios, terrestres o extraterrestres) o el espacio interno de la mente. Los personajes son igualmente diversos: a partir del patrón natural humano, recorre y explota modelos antropomórficos hasta desembocar en lo artificial de la creación humana (robot, androide, ciborg) o en criaturas no antropomórficas.
31-¿Qué es inteligencia artificial?; Ciencia que investiga la posibilidad de que un ordenador simule el proceso de razonamiento humano. Pretende también que el ordenador sea capaz de modificar su programación en función de su experiencia y que «aprenda».
32-¿Qué es CASE? (Computer Aided Software Engineering). Bajo el término de Ingeniería de Software Asistida por Ordenador se incluyen una serie de herramientas, lenguajes y técnicas de programación que permiten la generación de aplicaciones de manera semiautomática. Las herramientas CASE liberan al programador de parte de su trabajo y aumentan la calidad del programa a la vez que disminuyen sus posibles errores.
33-¿Qué es Análogo?; Transporte o vía por el que viajan señales (ondas) visuales o acústicas que se convierten en una tensión eléctrica variable, estas se pueden reproducir directamente a través de altavoces o almacenar en una cinta magnética. Este tipo de señales es mucho más vulnerable a los ruidos y las interferencias que las señales digitales, dado que las afecta el medio ambiente.
34-¿Qué es neurona?; Las neuronas (del griego νεῦρον, cuerda, nerviol) son un tipo de células del sistema nervioso cuya principal característica es la excitabilidad eléctrica de su membrana plasmática; están especializadas en la recepción de estímulos y conducción del impulso nervioso (en forma de potencial de acción) entre ellas o con otros tipos celulares, como por ejemplo las fibras musculares de la placa motora.
Los ordenadores neuronales proceden de una tecnología de última hora. Responden a una arquitectura que se asemeja al modo en que las neuronas se interconexionan en el cerebro humano. Su característica más peculiar es que estos ordenadores son capaces de desarrollar algo parecido al aprendizaje.
35-¿Quién es Claude Elwood Shannon? (Claude Elwood Shannon; Gaylord, EE UU, 1916) Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.
La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.
36-¿Qué es OLAP?; OLAP (Online Analitical Processing) desarrollan un análisis multidimensional (también denominado análisis del hipercubo) de los datos, que consiste en organizar la información según los parámetros que la alta dirección considere oportunos para darles un sentido y llevar a cabo el análisis de los mismos. Los datos que maneja esta técnica son importados tanto de fuentes externas como de las bases de datos productivas de la empresa. Estas bases de datos productivas son alimentadas por los llamados sistemas OLTP (Online Transactional Processing), entendiendo como tales el concepto tradicional que manejamos de bases de datos relacionales con las que las distintas unidades empresariales van trabajando diariamente.
37-¿Qué es Trivial?; trivial es un adjetivo que permite nombrar a algo común y sabido por todos. Se trata de algo vulgarizado, que no sobresale de lo ordinario y que carece de importancia o novedad.
TFTP son las siglas de Trivial file transfer Protocol (Protocolo de transferencia de archivos trivial). Es un protocolo de transferencia muy simple semejante a una versión básica de FTP. TFTP a menudo se utiliza para transferir pequeños archivos entre ordenadores en una red, como cuando un terminal X Windows o cualquier otro cliente ligero arrancan desde un servidor de red.
38-¿Qué es Digital?; Digital quiere decir que utiliza o que contiene información convertida al código binario, el lenguaje de números (ceros y unos) que emplean los ordenadores para almacenar y manipular los datos.
39-¿Qué es LISP?; (LISt Processing) Procesamiento de listas. Lenguaje de programación de alto nivel utilizado en programación no numérica. Desarrollado en 1960 por John McCarthy, su sintaxis y estructura es muy diferente de los lenguajes de programación tradicionales. Por ejemplo, en LISP no hay diferencia sintáctica entre datos e instrucciones.
LISP, disponible en versiones tanto intérprete como compilador, se utiliza ampliamente en aplicaciones de inteligencia artificial, como también en creación de compiladores. El programador puede modificar y expandir el lenguaje. Se han desarrollado muchas variedades de LISP, incluyendo las versiones que realizan cálculos eficazmente.
40-¿Qué es LOGGER? es un dispositivo electrónico que registra datos en tiempo real o en relación a la ubicación por medio de instrumentos y sensores propios o externos. Casi todos están basados en micro controladores. Por lo general son pequeños, usando batería de larga duración, portátiles, conteniendo un microprocesador y una memoria interna para almacenamiento de datos así como sensors.
41-¿Qué es OLP?
42-¿Qué son las Normas ISO?; La Organización Internacional para la Estandarización, ISO por sus siglas en inglés (International Organization for Standardization), es una federación mundial que agrupa a representantes de cada uno de los organismos nacionales de estandarización (como lo es el IRAM en la Argentina), y que tiene como objeto desarrollar estándares internacionales que faciliten el comercio internacional.
Cuando las organizaciones tienen una forma objetiva de evaluar la calidad de los procesos de un proveedor, el riesgo de hacer negocios con dicho proveedor se reduce en gran medida, y si los estándares de calidad son los mismos para todo el mundo, el comercio entre empresas de diferentes países puede potenciarse en forma significativa – y de hecho, así ha ocurrido –.
43-¿Qué es la Norma ISO-9000?;  La serie ISO 9000 es un conjunto de normas orientadas a ordenar la gestión de la empresa que han ganado reconocimiento y aceptación internacional debido al mayor poder que tienen los consumidores y a la alta competencia internacional acentuada por los procesos integracionistas. Algunas de estas normas especifican requisitos para sistemas de calidad (ISO 9001, 9002, 9003) y otras dan una guía para ayudar en la interpretación e implementación del sistema de calidad (ISO 9000-2, ISO 9004-1).
44-Antecedentes de la normas ISO-9000: La normalización internacional se realiza con base en un amplio criterio, no sólo se refiere a lo legislación comunitaria en moleña de productos o servicios, sino pretendiendo ser un método para asegurar la economía, ahorrar gastos, evitar el desempleo y garantizar el funcionamiento rentable de las empresas. Las organizaciones deben tener un sistema de calidad más eficiente cada día, que integre todas las actividades que pudieran afectar la satisfacción de las necesidades explícitas y tácitas de sus clientes. Es por esta razón que surgió la necesidad de normalizar la forma de asegurar la calidad.
El Organismo Internacional de Normalización, ISO, (International Organization for Standardization), fue creado en 1 947 y cuenta con 91 estados miembros, que son representados por sus organismos nacionales de normalización a ISO trabaja para lograr uno forma común de conseguir el establecimiento del sistema de calidad, que garantice la satisfacción de las necesidades y expectativas de los consumidores.
A comienzos del año 1980 la ISO designó una serie de comités técnicos para que trabajaran en el desarrollo de normas comunes que fuesen aceptadas universalmente. El resultado de este trabajo fue publicado siete años más tarde a través del compendio de normas ISO 9000, posterior a la publicación de la norma de aseguramiento de la calidad-vocabulario (ISO 8402), que fue dada a conocer en 1986.
El diario oficial de las comunidades europeas, el 28 de Enero de 1991, publicó una comunicación que fue también nombrada el Libro Verde de la normalización. Este importante documento no sólo fue un marco de referencia para Europa, sino también para las comunidades que negocian con ellos, como el caso de Mercosur, con esto se exige o sus proveedores que sean auditados y certificados bajo los lineamientos de la ISO 9000. La frecuencia que ISO estableció para la revisión y actualización de lo serie ISO 9000 fue de cinco años.
45-Objetivos de las ISO-9000:
ü  Proporcionar elementos para que una organización pueda lograr la calidad del producto o servicio, a la vez que mantenerla en el tiempo, de manera que las necesidades del cliente sean satisfechas permanentemente, permitiéndole a la empresa reducir costos de calidad, aumentar la productividad, y destacarse o sobresalir frente a la competencia.
ü  Proporcionar a los clientes o usuarios la seguridad de que el producto o los servicios tienen la calidad deseada, concertada, pactada o contratada.
ü  Proporcionar a la dirección de la empresa la seguridad de que se obtiene la calidad deseada.
ü  Establecer las directrices, mediante las cuales la organización, puede seleccionar y utilizar las normas.
46-Familia ISO-9000
FAMILIA ISO 9000
NORMA        AÑO   CONTENIDO
8402                1986    Gestión y aseguramiento de la calidad
9000                1987   
9000-1             1987    Norma para la gestión y aseguramiento de la calidad - Parte 1
9000-2             1993    Norma para la gestión y aseguramiento de la calidad - Parte 2
9000-3             1991    Norma para la gestión y aseguramiento de la calidad - Parte 3
9000-4             1993    Norma para la gestión y aseguramiento de la calidad - Parte 4
9001                1987    Sistema de calidad
9002                1987    Sistema de calidad
9003                1987    Sistema de calidad
9004-1             1987    Gestión de la calidad y elementos del sistema de calidad - Parte 1
9004-2             1991    Gestión de la calidad y elementos del sistema de calidad - Parte 2
9004-3             1993    Gestión de la calidad y elementos del sistema de calidad - Parte 3
9004-4             1993    Gestión de la calidad y elementos del sistema de calidad - Parte 4
9004-5             PC       Gestión de la calidad y elementos del sistema de calidad - Parte 5
9004-6             PT       Gestión de la calidad y elementos del sistema de calidad - Parte 6
9004-7             PNI     Gestión de la calidad y elementos del sistema de calidad - Parte 7
9004-8             NP       Gestión de la calidad y elementos del sistema de calidad - Parte 8
47- Detalles Estándar 9000-3:
La norma ISO 9000 contiene las directrices para seleccionar y utilizar las normas para el aseguramiento de la calidad, es decir, es la que permite seleccionar un modelo de aseguramiento de calidad, entre las que se describen las ISO 9001/9002/9003.
La norma ISO 9004. Establece directrices relativas a los factores técnicos, administrativos y humanos que afectan a la calidad del producto, es decir, establece directrices para la gestión de la calidad.
La norma ISO 9004-2 establece directrices relativas a los factores técnicos, administrativos y humanos que afectan a la calidad de los servicios, es decir, se refiere especialmente a los servicio.
Las normas ISO 9001/9002/9003 establecen requisitos de determinan que elementos tienen que comprender los sistemas de calidad, pero no es el propósito imponer uniformidad en los sistemas de calidad. 5on genéricas e independientes de cualquier industria o sector económico concreto.
Las tres normas tienen igual introducción y antecedentes, pero en lo referido a los requisitos del sistema encontramos diferencias. La primera diferencia es relativa al número de temas (ver tabla 1), y la segunda es 'relativa a la exigencia. La más completa es la 9001. Mientras que la 9003 es la más escueta y sencilla.
Otra diferencia la encontramos en el objeto y campo de aplicación que detallamos a continuación:
ISO-9001: especifica los requisitos que debe cumplir un sistema de calidad, aplicables cuando un contrato entre dos partes exige que se demuestre la capacidad de un proveedor en el diseño, desarrollo, producción, instalación y servicio posventa del producto suministrado, con la finalidad de satisfacer al cliente.
ISO-9OO2: especifica los requisitos que debe cumplir un sistema de calidad, aplicables cuando un contrata entre dos partes exige que se demuestre la capacidad de un proveedor en la producción, Instalación y servicie' posventa del producto suministrado, con la finalidad de satisfacer al cliente.
ISO-9003: especifica los requisitos que debe cumplir un sistema de calidad, aplicables cuando un contrato entre dos partes exige que se demuestre la capacidad de un proveedor en la inspección, y ensayos finales del producto
Suministrado, con la finalidad de satisfacer al cliente.
48- ¿Qué es FCC?; La Comisión Federal de Comunicaciones1 (Federal Communications Commission, FCC) es una agencia estatal independiente de Estados Unidos, bajo responsabilidad directa del Congreso. La FCC fue creada en 1934 con la Ley de Comunicaciones y es la encargada de la regulación (incluyendo censura) de telecomunicaciones interestatales e internacionales por radio, televisión, redes inalámbricas, satélite y cable. La FCC otorga licencias a las estaciones transmisoras de radio y televisión, asigna frecuencias de radio y vela por el cumplimiento de las reglas creadas para garantizar que las tarifas de los servicios por cable sean razonables. La FCC regula los servicios de transmisión comunes, por ejemplo, las compañías de teléfonos y telégrafos, así como a los proveedores de servicios de telecomunicaciones inalámbricas. La jurisdicción de la FCC cubre los 50 estados, el distrito de Columbia y las posesiones de Estados Unidos.
Desde 1977 también se encarga de la elaboración de normativas de Compatibilidad electromagnética, en lo que se refiere a productos electrónicos para el consumidor; es muy habitual ver en etiquetas, placas o manuales de muchos aparatos eléctricos de todo el mundo el símbolo de la FCC y la Declaración de Conformidad del fabricante hacia sus especificaciones, que suponen una limitación de las posibles emisiones electromagnéticas del aparato, para reducir en lo posible las interferencias (electromagnéticas) dañinas, en principio en sistemas de comunicaciones.
49-¿Qué es IEEE?; IEEE corresponde a las siglas de The Institute of Electrical and Electronics Engineers, el Instituto de Ingenieros Eléctricos y Electrónicos, una asociación técnico-profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor asociación internacional sin fines de lucro formada por profesionales de las nuevas tecnologías, como ingenieros eléctricos, ingenieros en electrónica, científicos de la computación, ingenieros en informática e ingenieros en telecomunicación.
Su creación se remonta al año 1884, contando entre sus fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers).
A través de sus miembros, más de 360.000 voluntarios en 175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la integración, compartir y aplicar los avances en las tecnologías de la información, electrónica y ciencias en general para beneficio de la humanidad y de los mismos profesionales. Algunos de sus estándares son:
VHDL
POSIX
IEEE 1394
IEEE 488
IEEE 802
IEEE 802.11
IEEE 754
IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares basados en consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control, organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de 900 estándares activos, con otros 700 más bajo desarrollo.
50-¿Qué es CCITT?; CCITT son las siglas de Comité Consultivo Internacional Telegráfico y Telefónico (Consultative Committee for International Telegraphy and Telephony - Comité Consultatif International Télégraphique et Téléphonique), antiguo nombre del comité de normalización de las telecomunicaciones dentro de la UIT (Unión Internacional de Telecomunicaciones) ahora conocido como UIT-T.

Bibliografía


No hay comentarios:

Publicar un comentario