1-Software: Es el conjunto de los programas de cómputo,
procedimientos, reglas, documentación y datos asociados que forman parte de las
operaciones de un sistema de computadoras.
2-Diferencia entre software y programa: En realidad no
existen una diferencia entre uno y el otro excepto que uno estas en español
“programa” y el otro en ingles “software”, a veces se le denominas software al conjunto general de programas, que más
genéricamente se refiere al equipamiento lógico o soporte lógico de una
computadora digital.
3-¿Qué es lenguaje de maquina?; Lenguaje de
máquina es el sistema de códigos directamente interpretable por un circuito
micro programable, como el microprocesador de una computadora o el micro
controlador de un autómata. Este lenguaje está compuesto por un conjunto de
instrucciones que determinan acciones a ser tomadas por la máquina.
4-¿Qué es lenguaje ensamblador?; Es un tipo de
lenguaje de bajo nivel utilizado para escribir programas informáticos, y
constituye la representación más directa del código máquina específico para
cada arquitectura de computadoras.
5-¿Qué es un lenguaje de programación?; Un
lenguaje de programación es aquel elemento dentro de la
informática que nos permite crear programas mediante un conjunto de
instrucciones, operadores y reglas de sintaxis; que pone a disposición del
programador para que este pueda comunicarse con los dispositivos hardware y
software existentes.
6-Herramienta de Programación: Las
herramientas de programación, son aquellas que permiten realizar aplicativos,
programas, rutinas, utilitarios y sistemas para que la parte física del
computador u ordenador, funcione y pueda producir resultados.
Entre otras herramientas de programación encontramos
librerías y componentes, dados por algunos lenguajes de programación como son
el C++ y Delphi.
Otras herramientas de programación son los lenguajes de
programación, que nos permiten crear rutinas, programas y utilitarios.
7-Lenguaje orientada a objeto: Se le
llama así a cualquier lenguaje de programación que implemente los conceptos
definidos por la programación orientada a objetos. Siguiendo esa idea,
cualquier lenguaje que permita la definición de tipos de datos, de operaciones
nuevas sobre esos tipos de datos, y de instanciar el tipo de datos podría ser
considerado orientado a objetos.
8-¿Qué es encapsulación?; Encapsulación
es la habilidad de una parte de un programa para ocultar sus datos al resto del
código, impidiendo así accesos incorrectos o conflictos con los nombres de otras
variables.
9-Analisis y diseño orientado a objeto: Análisis y
diseño orientado a objetos (ADOO) es un enfoque de la ingeniería de software
que modela un sistema como un grupo de objetos que interactúan entre sí. Este
enfoque representa un dominio en términos de conceptos compuestos por verbos y
sustantivos, clasificados de acuerdo a su dependencia funcional.
10-Interfaz de Usuario: La interfaz de
usuario es un conjunto de protocolos y técnicas para el intercambio de
información entre una aplicación computacional y el usuario ([Larson, 1992]).
La IU es responsable de solicitar comandos al usuario, y de desplegar los
resultados de la aplicación de una manera comprensible. La IU no es responsable
de los cálculos de la aplicación, ni del almacenamiento, recuperación y
transmisión de la información. Es importante señalar que dentro del proceso de
creación de la IU existen cuatro diferentes tipos de personas involucradas. La
primera persona, y probablemente la más importante, es el usuario final o
simplemente usuario. El usuario es quien va a utilizar el programa final. La
segunda persona es aquella que crea la interfaz de usuario. Esta persona es
conocida como diseñador o arquitecto de la interfaz de usuario. Trabajando muy
cercanamente con el diseñador estará el programador de la aplicación, este será
el encargado de la escritura del software del resto de la aplicación. Muy
frecuentemente el diseñador utilizará herramientas especiales para la creación
del software de la IU (como los toolkits2.1), y estas herramientas son
elaboradas por el creador de herramientas.
11-¿Qué es polimorfismo?; En programación
orientada a objetos el polimorfismo se refiere a la capacidad para que varias
clases derivadas de una antecesora utilicen un mismo método de forma diferente.
Como se mencionó anteriormente, el concepto de
polimorfismo se puede aplicar tanto a funciones como a tipos de datos. Así
nacen los conceptos de funciones polimórficas y tipos polimórficos. Las
primeras son aquellas funciones que pueden evaluarse o ser aplicadas a
diferentes tipos de datos de forma indistinta; los tipos polimórficos, por su
parte, son aquellos tipos de datos que contienen al menos un elemento cuyo tipo
no está especificado.
Se puede clasificar el polimorfismo en dos grandes
clases:
Polimorfismo dinámico (o polimorfismo paramétrico) es aquél
en el que el código no incluye ningún tipo de especificación sobre el tipo de
datos sobre el que se trabaja. Así, puede ser utilizado a todo tipo de datos
compatible.
Polimorfismo estático (o polimorfismo ad hoc) es aquél
en el que los tipos a los que se aplica el polimorfismo deben ser explicitados
y declarados uno por uno antes de poder ser utilizados.
En relación a los virus informáticos un código
polimórfico o polimorfismo es aquel que se sirve de un motor polimórfico para
mutarse a sí mismo mientras mantiene su algoritmo original intacto. Esta
técnica es utilizada comúnmente por virus informáticos y gusanos para ocultar
su presencia.
Muchos productos antivirus y sistemas de detección de
intrusiones intentan localizar programas maliciosos mediante búsquedas en los
archivos de la computadora y en los paquetes enviados a través de una red
informática. Si ese software encuentra patrones de código que coinciden con una
amenaza conocida toman los pasos apropiados para neutralizar esa amenaza.
Los algoritmos polimórficos dificultan la detección de
ese código malicioso modificándolo constantemente
.
En la mayoría de casos los programas maliciosos que usan
de técnicas de polimorfismo lo hacen conjuntamente con técnicas de cifrado, en
esos casos el programador malicioso usa cifrado para evitar la detección de la
mayor parte del código, y técnicas de polimorfismo para modificar la propia
rutina de descifrado.
El primer caso de virus informático polimórfico conocido
fue el 1260 creado por Mark Washburn en 1990. Otros virus informáticos de esta
clase son el creado por Dark Avenger en 1992 (Dark Avenger publicaría más tarde
su famosos Mutation engine, un motor polimórfico que muchos otros creadores de
virus usarían más tarde en sus creaciones), y ILoveYou en 2000.
12-¿Qué es tiempo de desarrollo?; El tiempo de
desarrollo del proyecto es indefinido, puede mantenerse durante el período que
se considere necesario, la ventaja que tiene es que se pueden involucrar
distintas comunidades donantes y receptoras, el objetivo inicial sería lograr
la capacitación de los mediadores en los aspectos técnicos necesarios para
llegar a una instalación de computadores con software Libre.
13-¿Qué es protocolo?; Protocolo es un
conjunto de reglas usadas por computadoras para comunicarse unas con otras a
través de una red. Un protocolo es una regla o estándar que controla o permite
la comunicación en su forma más simple, un protocolo puede ser definido como las
reglas que dominan la sintaxis, semántica y sincronización de la comunicación.
14-¿Quién es George Boole?; George Boole Nació el 2 de
noviembre de 1815 – y muere el 8 de diciembre de 1864, fue un matemático y
filósofo británico. Como inventor del álgebra de Boole, que marca los
fundamentos de la aritmética computacional moderna, Boole es considerado como
uno de los fundadores del campo de las Ciencias de la Computación. En 1854
publicó "An Investigation of the Laws of Thought" en el que
desarrollaba un sistema de reglas que le permitían expresar, manipular y
simplificar problemas lógicos y filosóficos cuyos argumentos admiten dos
estados (verdadero o falso) por procedimientos matemáticos. Se podría decir que
es el padre de las operaciones lógicas y gracias a su álgebra hoy en día es
posible manipular operaciones lógicas.
15-¿Quién es Norbert Wiener? Norbert Wiener
(nace el 26 de noviembre de 1894, Columbia (Misuri) – y muere el 18 de marzo de
1964, Estocolmo, Suecia) fue un matemático estadounidense, conocido como el
fundador de la cibernética. Acuñó el término en su libro Cibernética o el
control y comunicación en animales y máquinas, publicado en 1948.
Durante la Segunda Guerra Mundial, introduce en la
ciencia los conceptos de feedback o retroalimentación, y de cantidad de
información, con lo que se convierte en precursor de la teoría de la
comunicación o la psicología cognitiva. Posteriormente, en 1956, formulará
parte del concepto de Causalidad de Wiener-Granger o Test de Wiener-Granger:
Desarrollado por el Premio Nobel de Economía (año 2003) Clive W. J. Granger
(1934- ), a partir de las indicaciones de Norbert Wiener. Es un test
consistente en comprobar si los resultados de una variable sirven para predecir
a otra variable, si tiene carácter unidireccional o bidireccional. Para ello se
tiene que comparar y deducir si el comportamiento actual y el pasado de una
serie temporal A predice la conducta de una serie temporal B. Si ocurre el
hecho, se dice que “el resultado A” causa en el sentido de Wiener-Granger “el
resultado B”; el comportamiento es unidireccional. Si sucede lo explicado e
igualmente “el resultado B” predice “el resultado A”, el comportamiento es
bidireccional, entonces “el resultado A” causa “el resultado B”, y “el
resultado B” causa “el resultado A”.
16-¿Qué es API?; Una interfaz de
programación de aplicaciones o API (del inglés Application Programming
Interface) es el conjunto de funciones y procedimientos (o métodos, en la
programación orientada a objetos) que ofrece cierta biblioteca para ser
utilizado por otro software como una capa de abstracción. Son usadas
generalmente en las bibliotecas (también denominadas comúnmente
"librerías").
17-¿Quién es Aristóteles?
384
a.C. Nace en Estagira,
Macedonia (de ahí su sobrenombre de El Estagirita).
367
a.C. Se traslada a Atenas
para estudiar en la Academia de Platón, donde más tarde ejerce como maestro.
347
a.C. Muere Platón.
348
a.C. Se traslada a Axos,
donde sirve a Hermias de Atarneo. Durante esta etapa contrae matrimonio con
Pitias, sobrina de Hermias, con la que tuvo una hija. Tras la muerte prematura
de Pitias se casa con Erpilis, con quien tiene un hijo, Nicómaco, al que
dedicará su Ética para Nicómaco. También redacta su Política.
345
a.C. Tras el asesinato de
Hermias, se instala en Mitilene (Lesbos). Se dedica al estudio de la biología
con Teofrasto.
343
a.C. Filipo de Macedonia
le contrata como tutor de su hijo Alejandro.
334
a.C. Al acceder Alejandro
al trono, Aristóteles regresa a Atenas y funda el Liceo. En esta etapa produce
la mayor parte de su obra.
323
a.C. La muerte de
Alejandro levanta un oleada anti macedónica en Atenas que obliga a Aristóteles
a exiliarse.
322
a.C. Muere en la isla de
Chalcis, tierra de su madre, a los sesenta y dos años de edad.
Aristóteles se ha significado como uno de los filósofos
más importantes de todos los tiempos y ha sido uno de los pilares del
pensamiento occidental. Sus obras, escritas hace más de dos mil trescientos
años, siguen ejerciendo una influencia notable sobre innumerables pensadores
contemporáneos y continúan siendo objeto de estudio por parte de múltiples
especialistas. La filosofía de Aristóteles constituye, junto a la de su maestro
Platón, el legado más importante del pensamiento de la Grecia antigua.
Pese a ser discípulo de Platón, Aristóteles se distanció
de las posiciones idealistas, para elaborar un pensamiento de carácter
naturalista y realista. Frente a la separación radical entre el mundo sensible
y el mundo inteligible planteada por las doctrinas platónicas, defendió la
posibilidad de aprehender la realidad a partir de la experiencia. Así pues, en
contra de las tesis de su maestro, consideró que las ideas o conceptos
universales no deben separarse de las cosas, sino que estaban inmersas ellas,
como forma específica a la materia. Por estos motivos, otorgó gran importancia
a los estudios científicos y a la observación de la naturaleza. Sin embargo,
las preocupaciones de Aristóteles no se dirigieron únicamente al estudio
especulativo de las cosas y sus causas, sino que también se centraron en
cuestiones de lógica formal, moral, política y estética. De acuerdo con las
fuentes antiguas, el filósofo griego escribió 170 obras, aunque sólo 30 se han
conservado hasta nuestros días.
18- Lógica de Aristóteles: La lógica
aristotélica es la tradición lógica basada en el trabajo del filósofo griego
Aristóteles, primer pensador en formalizar el sistema lógico de tal manera que
sus propuestas han trascendido hasta nuestros días. Aristóteles planteó sus
ideas en varias obras, reunidas posteriormente bajo el nombre de Órganon
(órgano, herramienta), para difundir su conocimiento sobre las leyes del
razonamiento, argumentando que estas eran vitales para adentrarse en el mundo
de la filosofía.
La lógica aristotélica supone que la mente reproduce sólo
la realidad, la existencia de las cosas tal y como son, por ello es una ciencia
objetiva que se dedica a estudiar conceptos, desglosándolos en predicables y
predicamentos. La lógica analiza juicios y formas de razonamiento y su manera
de expresar resultados es el silogismo o razonamiento deductivo categórico.
El elemento básico es el término o concepto. Este
representa un objeto en la mente del hombre de manera que no pueda ser afectado
por los sentidos, la memoria o la mente. Un concepto tiene comprensión
(características del objeto) y extensión (hace alusión la cantidad de sujetos a
los que el concepto puede aplicarse).
La unión entre los términos o conceptos es una
proposición. Según Aristóteles, habría cuatro formas básicas de proposiciones
afirmativas:
“Todo A es B” (universal afirmativo).
“Ningún A es B” (universal negativo).
“Algunos A son B” (particular afirmativo).
“Algunos A no son B” (particular negativo).
Las letras sustituyen a palabras comunes como “perro”,
“animal de cuatro patas” o 'cosa viviente', llamadas “términos”.
A partir de las proposiciones se construyen los
silogismos o razonamientos. Un silogismo bien formulado consta de dos
proposiciones que fungen como premisas y de una conclusión, debiendo tener cada
premisa un término en común con la conclusión y un segundo término relacionado
con la otra premisa. En lógica clásica se formulan reglas por las que todos los
silogismos bien construidos se identifican como formas válidas o no válidas de
argumentación.
19-¿Qué es la lógica?; Disciplina que
estudia los principios formales del conocimiento humano, es decir, las formas y
las leyes más generales del pensamiento humano considerado puramente en sí
mismo, sin referencia a los objetos. Los problemas principales de la lógica son
las doctrinas del concepto, del juicio, del silogismo y del método.
20- Lógica Difusa: La lógica difusa o lógica
heurística se basa en lo relativo de lo observado como posición
diferencial. Este tipo de lógica toma dos valores aleatorios, pero
contextualizados y referidos entre sí. Así, por ejemplo, una persona que mida 2
metros es claramente una persona alta, si previamente se ha tomado el valor de
persona baja y se ha establecido en 1 metro. Ambos valores están
contextualizados a personas y referidos a una medida métrica lineal.
21- Lenguaje SQL: El lenguaje de
consulta estructurado o SQL (por sus siglas en inglés structured query
language) es un lenguaje declarativo de acceso a bases de datos relacionales
que permite especificar diversos tipos de operaciones en éstas. Una de sus
características es el manejo del álgebra y el cálculo relacional permitiendo
efectuar consultas con el fin de recuperar -de una forma sencilla- información
de interés de una base de datos, así como también hacer cambios sobre ella.
Los orígenes del SQL están ligados a las de las bases de
datos relacionales. En 1970 E. F. Codd propone el modelo relacional y asociado
a éste un sublenguaje de acceso a los datos basado en el cálculo de predicados.
Basándose en estas ideas, los laboratorios de IBM definen
el lenguaje SEQUEL (Structured English QUEry Language) que más tarde sería
ampliamente implementado por el sistema de gestión de bases de datos (SGBD)
experimental System R, desarrollado en 1977 también por IBM. Sin embargo, fue
Oracle quien lo introdujo por primera vez en 1979 en un programa comercial.
El SEQUEL terminaría siendo el predecesor de SQL, siendo
éste una versión evolucionada del primero. El SQL pasa a ser el lenguaje por
excelencia de los diversos sistemas de gestión de bases de datos relacionales
surgidos en los años siguientes y es por fin estandarizado en 1986 por el ANSI,
dando lugar a la primera versión estándar de este lenguaje, el
"SQL-86" o "SQL1". Al año siguiente este estándar es
también adoptado por la ISO.
Sin embargo, este primer estándar no cubre todas las
necesidades de los desarrolladores e incluye funcionalidades de definición de
almacenamiento que se consideraron suprimir. Así que en 1992 se lanza un nuevo
estándar ampliado y revisado del SQL llamado "SQL-92" o
"SQL2".
En la actualidad el SQL es el estándar de facto de la
inmensa mayoría de los SGBD comerciales. Y, aunque la diversidad de añadidos
particulares que incluyen las distintas implementaciones comerciales del
lenguaje es amplia, el soporte al estándar SQL-92 es general y muy amplio.
22- ¿Qué es Interface o Interfaz?; Es el elemento
de comunicación que facilita el intercambio de datos, como por ejemplo el
teclado, que es un tipo de interface entre el usuario y la computadora. En
software, es la parte de un programa que permite el flujo de información entre
un usuario y la aplicación, o entre la aplicación y otros programas o
periféricos. Esa parte de un programa está constituida por un conjunto de
comandos y métodos que permiten estas intercomunicaciones. Interfaz también
hace referencia al conjunto de métodos para lograr interactividad entre un
usuario y una computadora. Por ejemplo, el monitor, el teclado y el mouse, son
interfaces entre el usuario y el ordenador.
23- ¿Qué es ABI?; ABI
(application binary interface - interfaz binaria de aplicación) describe la
interfaz de bajo nivel entre una aplicación y el sistema operativo, entre una
aplicación y sus bibliotecas, o entre partes componentes de una aplicación. ABI
permite que un código objeto compilado funcione sin cambios sobre cualquier sistema
usando un ABI compatible.
24-¿Qué es OLTP?; OLTP es la
sigla en inglés de Procesamiento de Transacciones En Línea (Online Transaction Processing)
es un tipo de sistemas que facilitan y administran aplicaciones
transaccionales, usualmente para entrada de datos y recuperación y
procesamiento de transacciones (gestor transaccional). Los paquetes de software
para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser
utilizados por empresas con una red informática distribuida.
25-¿Qué es Datawarehouse?; Un
Datawarehouse es una base de datos corporativa que se caracteriza por integrar
y depurar información de una o más fuentes distintas, para luego procesarla
permitiendo su análisis desde infinidad de perspectivas y con grandes
velocidades de respuesta. La creación de un datawarehouse representa en la
mayoría de las ocasiones el primer paso, desde el punto de vista técnico, para
implantar una solución completa y fiable de Business Intelligence.
La ventaja principal de este tipo de bases de datos
radica en las estructuras en las que se almacena la información (modelos de
tablas en estrella, en copo de nieve, cubos relacionales... etc.). Este tipo de
persistencia de la información es homogénea y fiable, y permite la consulta y
el tratamiento jerarquizado de la misma (siempre en un entorno diferente a los
sistemas operacionales).
26-¿Qué es un Data Mart?; Un Datamart es
una base de datos departamental, especializada en el almacenamiento de los
datos de un área de negocio específica. Se caracteriza por disponer la
estructura óptima de datos para analizar la información al detalle desde todas
las perspectivas que afecten a los procesos de dicho departamento. Un datamart
puede ser alimentado desde los datos de un datawarehouse, o integrar por sí
mismo un compendio de distintas fuentes de información. Por tanto, para crear
el datamart de un área funcional de la empresa es preciso encontrar la
estructura óptima para el análisis de su información, estructura que puede
estar montada sobre una base de datos OLTP, como el propio datawarehouse, o
sobre una base de datos OLAP. La designación de una u otra dependerá de los
datos, los requisitos y las características específicas de cada departamento.
27-¿Qué es Algebra Booleana?; El álgebra
booleana es un sistema matemático deductivo centrado en los valores cero y uno
(falso y verdadero). Un operador binario " º " definido en éste juego
de valores acepta un par de entradas y produce un solo valor booleano, por
ejemplo, el operador booleano AND acepta dos entradas booleanas y produce una
sola salida booleana. En informática y matemática, es una estructura algebraica
que esquematiza las operaciones lógicas Y, O, NO y Si (AND, OR, NOT, IF), así
como el conjunto de operaciones unión, intersección y complemento. Se denomina
así en honor a George Boole (2 de noviembre de 1815 a 8 de diciembre de 1864),
matemático inglés que fue el primero en definirla como parte de un sistema
lógico a mediados del siglo XIX. El álgebra de Boole fue un intento de utilizar
las técnicas algebraicas para tratar expresiones de la lógica proposicional. En
la actualidad, el álgebra de Boole se aplica de forma generalizada en el ámbito
del diseño electrónico. Claude Shannon fue el primero en aplicarla en el diseño
de circuitos de conmutación eléctrica biestables, en 1948.
28-¿Qué es lenguaje de alto nivel?; Lenguaje
de programación en el que las instrucciones enviadas para que el ordenador
ejecute ciertas órdenes son similares al lenguaje humano. Dado que el ordenador
no es capaz de reconocer estas órdenes, es necesario el uso de un intérprete
que traduzca el lenguaje de alto nivel a un lenguaje de bajo nivel que el
sistema pueda entender.
29-¿lenguaje de bajo nivel?; Lenguaje de
programación que el ordenador puede entender a la hora de ejecutar programas,
lo que aumenta su velocidad de ejecución, pues no necesita un intérprete que
traduzca cada línea de instrucciones.
30-¿Qué es ciencia ficción?; La ciencia
ficción es la denominación popular con que se conoce a uno de los géneros
derivados de la literatura de ficción, junto con la literatura fantástica y la
narrativa de terror. Es un género especulativo que relata acontecimientos
posibles desarrollados en un marco espacio-temporal puramente imaginario, cuya
verosimilitud se fundamenta narrativamente en los campos de las ciencias
físicas, naturales y sociales. La acción puede girar en torno a un abanico
grande de posibilidades (viajes interestelares, conquista del espacio,
consecuencias de una hecatombe terrestre o cósmica, evolución humana
sobrevenidas por mutaciones, evolución de los robots, realidad virtual,
existencia de civilizaciones alienígenas, etc.). Esta acción puede tener lugar
en un tiempo pasado, presente o futuro, o, incluso, en tiempos alternativos
ajenos a la realidad conocida, y tener por escenario espacios físicos (reales o
imaginarios, terrestres o extraterrestres) o el espacio interno de la mente.
Los personajes son igualmente diversos: a partir del patrón natural humano,
recorre y explota modelos antropomórficos hasta desembocar en lo artificial de
la creación humana (robot, androide, ciborg) o en criaturas no antropomórficas.
31-¿Qué es inteligencia artificial?; Ciencia que
investiga la posibilidad de que un ordenador simule el proceso de razonamiento
humano. Pretende también que el ordenador sea capaz de modificar su
programación en función de su experiencia y que «aprenda».
32-¿Qué
es CASE? (Computer
Aided Software Engineering). Bajo el término de Ingeniería de Software Asistida por Ordenador
se incluyen una serie de herramientas, lenguajes y técnicas de programación que
permiten la generación de aplicaciones de manera semiautomática. Las
herramientas CASE liberan al programador de parte de su trabajo y aumentan la
calidad del programa a la vez que disminuyen sus posibles errores.
33-¿Qué es Análogo?; Transporte o
vía por el que viajan señales (ondas) visuales o acústicas que se convierten en
una tensión eléctrica variable, estas se pueden reproducir directamente a
través de altavoces o almacenar en una cinta magnética. Este tipo de señales es
mucho más vulnerable a los ruidos y las interferencias que las señales
digitales, dado que las afecta el medio ambiente.
34-¿Qué es neurona?; Las neuronas
(del griego νεῦρον, cuerda, nerviol) son un tipo de células del sistema
nervioso cuya principal característica es la excitabilidad eléctrica de su
membrana plasmática; están especializadas en la recepción de estímulos y
conducción del impulso nervioso (en forma de potencial de acción) entre ellas o
con otros tipos celulares, como por ejemplo las fibras musculares de la placa
motora.
Los ordenadores neuronales proceden de una tecnología de
última hora. Responden a una arquitectura que se asemeja al modo en que las
neuronas se interconexionan en el cerebro humano. Su característica más
peculiar es que estos ordenadores son capaces de desarrollar algo parecido al
aprendizaje.
35-¿Quién es Claude Elwood Shannon? (Claude Elwood
Shannon; Gaylord, EE UU, 1916) Ingeniero estadounidense. Se graduó en ingeniería
por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un
doctorado de matemáticas en el Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a
trabajar sobre el problema de la eficacia de los diferentes métodos existentes
de transmisión de la información, tanto mediante el flujo a través de hilos o
cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien
moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia
la comprensión fundamental del problema y en 1948 desarrolló un método para
expresar la información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se
podía analizar dicha cuantificación (expresada en una magnitud que denominó bit)
mediante métodos estrictamente matemáticos. Así, era posible medir la
verosimilitud de la información mutilada por pérdidas de bits, distorsión de
los mismos, adición de elementos extraños, etc., y hablar con precisión de
términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto
físico de entropía como un proceso continuado de pérdida de información.
La rama de las matemáticas inaugurada por Shannon se
denominó teoría de la información y resultó ser extremadamente útil, no sólo en
el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino
que también ha hallado aplicaciones fecundas en campos tan diversos como la
biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que
una señal debe ser muestreada al doble de su frecuencia natural (o, en su
defecto, al doble de la mayor de las frecuencias de dicha señal), para que no
se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no
deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of
Technology.
36-¿Qué es OLAP?; OLAP
(Online Analitical Processing) desarrollan un análisis multidimensional
(también denominado análisis del hipercubo) de los datos, que consiste en organizar
la información según los parámetros que la alta dirección considere oportunos
para darles un sentido y llevar a cabo el análisis de los mismos. Los datos que
maneja esta técnica son importados tanto de fuentes externas como de las bases
de datos productivas de la empresa. Estas bases de datos productivas son
alimentadas por los llamados sistemas OLTP (Online Transactional Processing),
entendiendo como tales el concepto tradicional que manejamos de bases de datos
relacionales con las que las distintas unidades empresariales van trabajando
diariamente.
37-¿Qué es Trivial?; trivial es un
adjetivo que permite nombrar a algo común y sabido por todos. Se trata de algo
vulgarizado, que no sobresale de lo ordinario y que carece de importancia o
novedad.
TFTP son las siglas de Trivial file transfer Protocol
(Protocolo de transferencia de archivos trivial). Es un protocolo de
transferencia muy simple semejante a una versión básica de FTP. TFTP a menudo
se utiliza para transferir pequeños archivos entre ordenadores en una red, como
cuando un terminal X Windows o cualquier otro cliente ligero arrancan desde un
servidor de red.
38-¿Qué es Digital?; Digital quiere
decir que utiliza o que contiene información convertida al código binario, el
lenguaje de números (ceros y unos) que emplean los ordenadores para almacenar y
manipular los datos.
39-¿Qué es LISP?; (LISt
Processing) Procesamiento de listas. Lenguaje de programación de alto nivel
utilizado en programación no numérica. Desarrollado en 1960 por John McCarthy,
su sintaxis y estructura es muy diferente de los lenguajes de programación
tradicionales. Por ejemplo, en LISP no hay diferencia sintáctica entre datos e
instrucciones.
LISP, disponible en versiones tanto intérprete como
compilador, se utiliza ampliamente en aplicaciones de inteligencia artificial,
como también en creación de compiladores. El programador puede modificar y
expandir el lenguaje. Se han desarrollado muchas variedades de LISP, incluyendo
las versiones que realizan cálculos eficazmente.
40-¿Qué es LOGGER? es un dispositivo electrónico que registra datos en
tiempo real o en relación a la ubicación por medio de instrumentos y sensores
propios o externos. Casi todos están basados en micro controladores. Por lo
general son pequeños, usando batería de larga duración, portátiles, conteniendo
un microprocesador y una memoria interna para almacenamiento de datos así como sensors.
41-¿Qué es OLP?
42-¿Qué son las Normas ISO?; La Organización
Internacional para la Estandarización, ISO por sus siglas en inglés
(International Organization for Standardization), es una federación mundial que
agrupa a representantes de cada uno de los organismos nacionales de
estandarización (como lo es el IRAM en la Argentina), y que tiene como objeto
desarrollar estándares internacionales que faciliten el comercio internacional.
Cuando las organizaciones tienen una forma objetiva de
evaluar la calidad de los procesos de un proveedor, el riesgo de hacer negocios
con dicho proveedor se reduce en gran medida, y si los estándares de calidad
son los mismos para todo el mundo, el comercio entre empresas de diferentes
países puede potenciarse en forma significativa – y de hecho, así ha ocurrido
–.
43-¿Qué es la Norma ISO-9000?; La serie
ISO 9000 es un conjunto de normas orientadas a ordenar la gestión de la empresa
que han ganado reconocimiento y aceptación internacional debido al mayor poder
que tienen los consumidores y a la alta competencia internacional acentuada por
los procesos integracionistas. Algunas de estas normas especifican requisitos
para sistemas de calidad (ISO 9001, 9002, 9003) y otras dan una guía para
ayudar en la interpretación e implementación del sistema de calidad (ISO
9000-2, ISO 9004-1).
44-Antecedentes de la normas ISO-9000: La
normalización internacional se realiza con base en un amplio criterio, no sólo
se refiere a lo legislación comunitaria en moleña de productos o servicios,
sino pretendiendo ser un método para asegurar la economía, ahorrar gastos,
evitar el desempleo y garantizar el funcionamiento rentable de las empresas.
Las organizaciones deben tener un sistema de calidad más eficiente cada día,
que integre todas las actividades que pudieran afectar la satisfacción de las
necesidades explícitas y tácitas de sus clientes. Es por esta razón que surgió
la necesidad de normalizar la forma de asegurar la calidad.
El Organismo Internacional de Normalización, ISO,
(International Organization for Standardization), fue creado en 1 947 y cuenta
con 91 estados miembros, que son representados por sus organismos nacionales de
normalización a ISO trabaja para lograr uno forma común de conseguir el
establecimiento del sistema de calidad, que garantice la satisfacción de las
necesidades y expectativas de los consumidores.
A comienzos del año 1980 la ISO designó una serie de
comités técnicos para que trabajaran en el desarrollo de normas comunes que
fuesen aceptadas universalmente. El resultado de este trabajo fue publicado
siete años más tarde a través del compendio de normas ISO 9000, posterior a la
publicación de la norma de aseguramiento de la calidad-vocabulario (ISO 8402),
que fue dada a conocer en 1986.
El diario oficial de las comunidades europeas, el 28 de
Enero de 1991, publicó una comunicación que fue también nombrada el Libro Verde
de la normalización. Este importante documento no sólo fue un marco de
referencia para Europa, sino también para las comunidades que negocian con ellos,
como el caso de Mercosur, con esto se exige o sus proveedores que sean
auditados y certificados bajo los lineamientos de la ISO 9000. La frecuencia
que ISO estableció para la revisión y actualización de lo serie ISO 9000 fue de
cinco años.
45-Objetivos de las ISO-9000:
ü
Proporcionar elementos para que una organización pueda
lograr la calidad del producto o servicio, a la vez que mantenerla en el
tiempo, de manera que las necesidades del cliente sean satisfechas
permanentemente, permitiéndole a la empresa reducir costos de calidad, aumentar
la productividad, y destacarse o sobresalir frente a la competencia.
ü
Proporcionar a los clientes o usuarios la seguridad de
que el producto o los servicios tienen la calidad deseada, concertada, pactada
o contratada.
ü
Proporcionar a la dirección de la empresa la seguridad de
que se obtiene la calidad deseada.
ü
Establecer las directrices, mediante las cuales la
organización, puede seleccionar y utilizar las normas.
46-Familia ISO-9000
FAMILIA ISO 9000
NORMA
AÑO CONTENIDO
8402
1986 Gestión y aseguramiento de la calidad
9000
1987
9000-1
1987 Norma para la gestión y aseguramiento de la calidad -
Parte 1
9000-2
1993 Norma para la gestión y aseguramiento de la calidad -
Parte 2
9000-3
1991 Norma para la gestión y aseguramiento de la calidad -
Parte 3
9000-4
1993 Norma para la gestión y aseguramiento de la calidad -
Parte 4
9001
1987 Sistema de calidad
9002
1987 Sistema de calidad
9003
1987 Sistema de calidad
9004-1
1987 Gestión de la calidad y elementos del sistema de calidad
- Parte 1
9004-2
1991
Gestión de la calidad y elementos del sistema de calidad - Parte 2
9004-3
1993 Gestión de la calidad y elementos del sistema de calidad
- Parte 3
9004-4
1993 Gestión de la calidad y elementos del sistema de calidad
- Parte 4
9004-5
PC Gestión de la calidad y elementos del
sistema de calidad - Parte 5
9004-6
PT Gestión de la calidad y elementos del
sistema de calidad - Parte 6
9004-7
PNI Gestión de la calidad y elementos del sistema de
calidad - Parte 7
9004-8
NP Gestión de la calidad y elementos del
sistema de calidad - Parte 8
47- Detalles Estándar 9000-3:
La norma ISO 9000 contiene las directrices para
seleccionar y utilizar las normas para el aseguramiento de la calidad, es
decir, es la que permite seleccionar un modelo de aseguramiento de calidad,
entre las que se describen las ISO 9001/9002/9003.
La norma ISO 9004. Establece directrices relativas a los
factores técnicos, administrativos y humanos que afectan a la calidad del
producto, es decir, establece directrices para la gestión de la calidad.
La norma ISO 9004-2 establece directrices relativas a los
factores técnicos, administrativos y humanos que afectan a la calidad de los
servicios, es decir, se refiere especialmente a los servicio.
Las normas ISO 9001/9002/9003 establecen requisitos de
determinan que elementos tienen que comprender los sistemas de calidad, pero no
es el propósito imponer uniformidad en los sistemas de calidad. 5on genéricas e
independientes de cualquier industria o sector económico concreto.
Las tres normas tienen igual introducción y antecedentes,
pero en lo referido a los requisitos del sistema encontramos diferencias. La
primera diferencia es relativa al número de temas (ver tabla 1), y la segunda
es 'relativa a la exigencia. La más completa es la 9001. Mientras que la 9003
es la más escueta y sencilla.
Otra diferencia la encontramos en el objeto y campo de
aplicación que detallamos a continuación:
ISO-9001: especifica los requisitos que debe cumplir un
sistema de calidad, aplicables cuando un contrato entre dos partes exige que se
demuestre la capacidad de un proveedor en el diseño, desarrollo, producción,
instalación y servicio posventa del producto suministrado, con la finalidad de
satisfacer al cliente.
ISO-9OO2: especifica los requisitos que debe cumplir un
sistema de calidad, aplicables cuando un contrata entre dos partes exige que se
demuestre la capacidad de un proveedor en la producción, Instalación y
servicie' posventa del producto suministrado, con la finalidad de satisfacer al
cliente.
ISO-9003: especifica los requisitos que debe cumplir un
sistema de calidad, aplicables cuando un contrato entre dos partes exige que se
demuestre la capacidad de un proveedor en la inspección, y ensayos finales del
producto
Suministrado, con la finalidad de satisfacer al cliente.
48- ¿Qué es FCC?; La
Comisión Federal de Comunicaciones1 (Federal Communications Commission, FCC) es
una agencia estatal independiente de Estados Unidos, bajo responsabilidad
directa del Congreso. La FCC fue creada en 1934 con la Ley de Comunicaciones y
es la encargada de la regulación (incluyendo censura) de telecomunicaciones
interestatales e internacionales por radio, televisión, redes inalámbricas,
satélite y cable. La FCC otorga licencias a las estaciones transmisoras de
radio y televisión, asigna frecuencias de radio y vela por el cumplimiento de
las reglas creadas para garantizar que las tarifas de los servicios por cable
sean razonables. La FCC regula los servicios de transmisión comunes, por
ejemplo, las compañías de teléfonos y telégrafos, así como a los proveedores de
servicios de telecomunicaciones inalámbricas. La jurisdicción de la FCC cubre
los 50 estados, el distrito de Columbia y las posesiones de Estados Unidos.
Desde 1977 también se encarga de la elaboración de
normativas de Compatibilidad electromagnética, en lo que se refiere a productos
electrónicos para el consumidor; es muy habitual ver en etiquetas, placas o
manuales de muchos aparatos eléctricos de todo el mundo el símbolo de la FCC y
la Declaración de Conformidad del fabricante hacia sus especificaciones, que
suponen una limitación de las posibles emisiones electromagnéticas del aparato,
para reducir en lo posible las interferencias (electromagnéticas) dañinas, en
principio en sistemas de comunicaciones.
49-¿Qué es IEEE?; IEEE
corresponde a las siglas de The Institute of Electrical and Electronics
Engineers, el Instituto de Ingenieros Eléctricos y Electrónicos, una asociación
técnico-profesional mundial dedicada a la estandarización, entre otras cosas.
Es la mayor asociación internacional sin fines de lucro formada por
profesionales de las nuevas tecnologías, como ingenieros eléctricos, ingenieros
en electrónica, científicos de la computación, ingenieros en informática e
ingenieros en telecomunicación.
Su creación se remonta al año 1884, contando entre sus
fundadores a personalidades de la talla de Thomas Alva Edison, Alexander Graham
Bell y Franklin Leonard Pope. En 1963 adoptó el nombre de IEEE al fusionarse
asociaciones como el AIEE (American Institute of Electrical Engineers) y el IRE
(Institute of Radio Engineers).
A través de sus miembros, más de 360.000 voluntarios en
175 países, el IEEE es una autoridad líder y de máximo prestigio en las áreas
técnicas derivadas de la eléctrica original: desde ingeniería computacional,
tecnologías biomédica y aeroespacial, hasta las áreas de energía eléctrica,
control, telecomunicaciones y electrónica de consumo, entre otras.
Según el mismo IEEE, su trabajo es promover la
creatividad, el desarrollo y la integración, compartir y aplicar los avances en
las tecnologías de la información, electrónica y ciencias en general para
beneficio de la humanidad y de los mismos profesionales. Algunos de sus
estándares son:
VHDL
POSIX
IEEE 1394
IEEE 488
IEEE 802
IEEE 802.11
IEEE 754
IEEE 830
Mediante sus actividades de publicación técnica,
conferencias y estándares basados en consenso, el IEEE produce más del 30% de
la literatura publicada en el mundo sobre ingeniería eléctrica, en computación,
telecomunicaciones y tecnología de control, organiza más de 350 grandes
conferencias al año en todo el mundo, y posee cerca de 900 estándares activos,
con otros 700 más bajo desarrollo.
50-¿Qué es CCITT?; CCITT son las
siglas de Comité Consultivo Internacional Telegráfico y Telefónico
(Consultative Committee for International Telegraphy and Telephony - Comité
Consultatif International Télégraphique et Téléphonique), antiguo nombre del
comité de normalización de las telecomunicaciones dentro de la UIT (Unión
Internacional de Telecomunicaciones) ahora conocido como UIT-T.
Bibliografía
No hay comentarios:
Publicar un comentario