viernes, 31 de octubre de 2008

Teoria de la Electronica

Los Metodos Matematicos en electrónica son un conjunto de procesos análiticos que se utilizan en la electrónica para poder precisar de forma exacta el comportamiento de un circuito así támbién determinar su composicion. Las matemáticas ha hecho un aporte eminente a la teoría de circuitos.Gracias a las matemáticas se ha podido entender y cuantificar de forma modular los fenómenos eléctricos. De esta forma se ha comprendido mejor el comportamiento de la energía eléctrica. El aporte ha sido tan palpable que de simples fórmulas algebráicas se pueden derivar circuitos lógicos los mismos que son utilizados en las computadoras. Se puede precisar el valor exacto de una magnitud determinada en un área específica del circuito. Gracias a las matemáticas la electrónica ha ganado un alto nivel de complejidad y al mismo tiempo ha hecho posible la creación de más posibilidades para ingeniar nuevas aplicaciones electrónicas.

La electrónica digital es una parte de la electrónica que se encarga de sistemas electrónicos en los cuales la información está codificada en dos únicos estados. A dichos estados se les puede llamar "verdadero" o "falso", o más comúnmente 1 y 0, refiriéndose a que en un circuito electrónico hay (1- verdadero) tensión de voltaje o hay ausencia de tensión de voltaje ( 0 - falso). Electrónicamente se les asigna a cada uno un voltaje o rango de voltaje determinado, a los que se les denomina niveles lógicos, típicos en toda señal digital. Por lo regular los valores de voltaje en circuitos electrónicos pueden ir desde 1.5, 3, 5, 9 y 18 Volts dependiendo la aplicación así por ejemplo, en un radio de transistores convencional las tensiones de voltaje son por lo regular de 5 y 12 Volts al igual que se utiliza en los discos duros IDE de computadora.

Se diferencia de la electrónica analógica en que, para la electrónica digital un valor de voltaje codifica uno de estos dos estados, mientras que para la electrónica analógica hay una infinidad de estados de información que codificar según el valor del voltaje.

Esta particularidad permite que, usando Álgebra Booleana y un sistema de numeración binario, se puedan realizar complejas operaciones lógicas o aritméticas sobre las señales de entrada, muy costosas de hacer empleando métodos analógicos.

La electrónica digital ha alcanzado una gran importancia debido a que es utilizada para realizar autómatas y por ser la piedra angular de los sistemas microprogramados como son los ordenadores o computadoras.

Los sistemas digitales pueden clasificarse del siguiente modo:

* Sistemas cableados

* Combinacionales
* Secuenciales
* Memorias
* Convertidores

* Sistemas programados

* Microprocesadores
* Microcontroladores

Dentro de la electrónica podemos distinguir:

* Electrónica analógica
* Electrónica digital


La electrónica es una parte de la física que se encarga del estudio de los sistemas eléctricos enfocados desde el punto de vista del comportamiento individual del electrón (la mínima partícula eléctrica). Su relación con la electricidad en sí es muy estrecha, de forma que algunas veces es difícil separar la una de la otra.

La electrónica digital considera valores discretos de tensión, corriente o cualquier otra medida; esto es valores concretos determinados, mientras que la electrónica analógica considera y trabaja con valores continuos de estas variables; pudiendo tomar infinitos valores (teóricamente al menos).

Pongamos un ejemplo:

Disponemos de una medida real concreta; la longitud total de un coche, por ejemplo.

En un sistema digital esta medida podría ser de 4 metros o de 4 metros y 23 centímetros. Podremos darle la precisión que queramos pero siempre serán cantidades enteras

En un sistema analógico la medida seria la real; es decir 4,233648596... en teoría hasta que llegásemos a la mínima cantidad de materia existente (siempre que el sistema de medida sea lo suficientemente exacto).

Dispositivos Analogicos,Digitales y de Potencia

Analogicos:

* Amplificador operacional: amplificación, regulación, conversión de señal, conmutación.
* Capacitor: almacenamiento de energía, filtrado, adaptación impedancias.
* Diodo: rectificación de señales, regulación, multiplicador de tensión.
* Diodo Zener: regulación de tensiones.
* Inductor: adaptación de impedancias.
* Potenciómetro: variación de la corriente eléctrica o la tensión.
* Relé: apertura o cierre de circuitos mediante señales de control.
* Resistor: división de intensidad o tensión, limitación de intensidad.
* Transistor: amplificación, conmutación.

Digitales:

* Biestable: control de sistemas secuenciales.
* Memoria: almacenamiento digital de datos.
* Microcontrolador: control de sistemas digitales.
* Puerta lógica: control de sistemas combinacionales.

De potencia:

* DIAC: control de potencia.
* Fusible: protección contra sobre-intensidades.
* Tiristor: control de potencia.
* Transformador: elevar o disminuir tensiones, intensidades, e impedancia aparente.
* Triac: control de potencia.
* Varistor: protección contra sobre-tensiones.

Componentes Electronicos

Para la síntesis de circuitos electrónicos se utilizan componentes electrónicos e instrumentos electrónicos. A continuación se presenta una lista de los componentes e instrumentos más importantes en la electrónica, seguidos de su uso más común:

* Altavoz: reproducción de sonido.
* Cable: conducción de la electricidad.
* Conmutador: reencaminar una entrada a una salida elegida entre dos o más.
* Interruptor: apertura o cierre de circuitos, manualmente.
* Pila: generador de energía eléctrica.
* Transductor: transformación de una magnitud física en una eléctrica (ver enlace).
* Visualizador: muestra de datos o imágenes.

Circuitos Electronicos

Se denomina circuito electrónico a una serie de elementos o componentes eléctricos (tales como resistencias, inductancias, condensadores y fuentes) o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales electrónicas. Los circuitos electrónicos o eléctricos se pueden clasificar de varias maneras:

Por el tipo de información:

Analógicos
Digitales
Mixtos

Por el tipo de régimen:

Periódico
Transitorio
Permanente

Por el tipo de señal:

De corriente continua
De corriente alterna
Mixtos

Por su configuración:

Serie
Paralelo
Mixtos

Sistemas Electronicos

Un sistema electrónico es un conjunto de circuitos que interactúan entre sí para obtener un resultado. Una forma de entender los sistemas electrónicos consiste en dividirlos en las siguientes partes:

1. Entradas o Inputs – Sensores (o transductores) electrónicos o mecánicos que toman las señales (en forma de temperatura, presión, etc.) del mundo físico y las convierten en señales de corriente o voltaje. Ejemplo: El termopar, la foto resistencia para medir la intensidad de la luz, etc.
2. Circuitos de procesamiento de señales – Consisten en piezas electrónicas conectadas juntas para manipular, interpretar y transformar las señales de voltaje y corriente provenientes de los transductores.
3. Salidas o Outputs – Actuadores u otros dispositivos (también transductores) que convierten las señales de corriente o voltaje en señales físicamente útiles. Por ejemplo: un display que nos registre la temperatura, un foco o sistema de luces que se encienda automáticamente cuando este obscureciendo.

Imagen:Sistemaselectronics.JPG Básicamente son tres etapas: La primera (transductor), la segunda (circuito procesador) y la tercera (circuito actuador).

Como ejemplo supongamos un televisor. Su entrada es una señal de difusión recibida por una antena o por un cable. Los circuitos de procesado de señales del interior del televisor extraen la información sobre el brillo, el color y el sonido de esta señal. Los dispositivos de salida son un tubo de rayos catódicos que convierte las señales electrónicas en imágenes visibles en una pantalla y unos altavoces. Otro ejemplo puede ser el de un circuito que ponga de manifiesto la temperatura de un proceso, el transductor puede ser un termocouple, el circuito de procesamiento se encarga de convertir la señal de entrada en un nivel de voltaje (comparador de voltaje o de ventana) en un nivel apropiado y mandar la información decodificándola a un display donde nos dé la temperatura real y si esta excede un límite preprogramado activar un sistema de alarma (circuito actuador) para tomar las medida pertinentes.

Aplicaciones de La Electronica

Las principales aplicaciones de los convertidores electrónicos de potencia son las siguientes:

* Fuentes de alimentación: En la actualidad han cobrado gran importancia un subtipo de fuentes de alimentación electrónicas, denominadas fuentes de alimentación conmutadas. Estas fuentes se caracterizan por su elevado rendimiento y reducción de volumen necesario. El ejemplo más claro de aplicación se encuentra en la fuente de alimentación de los ordenadores.

* Control de motores eléctricos: La utilización de convertidores electrónicos permite controlar parámetros tales como la posición, velocidad o par suministrado por un motor. Este tipo de control se utiliza en la actualidad en los sistemas de aire acondicionado. Esta técnica, denominada comercialmente como "inverter" sustituye el antiguo control encendido/apagado por una regulación de velocidad que permite ahorrar energía.

* Calentamiento por inducción: Consiste en el calentamiento de un material conductor a través del campo generado por un inductor. La alimentación del inductor se realiza a alta frecuencia, generalmente en el rango de los kHz, de manera que se hacen necesarios convertidores electrónicos de frecuencia. La aplicación más vistosa se encuentra en las cocinas de inducción actuales.

* Otras: Como se ha comentado anteriormente son innumerables las aplicaciones de la electrónica de potencia. Además de las ya comentadas destacan: sistemas de alimentación ininterrumpida, sistemas de control del factor de potencia, balastos electrónicos para iluminación a alta frecuencia, interfase entre fuentes de energía renovables y la red eléctrica, etc.

Las líneas de investigación actuales buscan la integración de dispositivos de potencia y control en un único chip, reduciendo costes y multiplicando sus potenciales aplicaciones. No obstante existen dificultades a salvar como el aislamiento entre zonas trabajando a altas tensiones y circuitería de control, así como la disipación de la potencia perdida.

Historia de la Electronica

Difícilmente se encontrará alguien más o menos conectado con la vida diaria que no haya oído mencionar la Electrónica, pero muy pocos saben en qué consiste. Explicar que "es la rama de la ingeniería eléctrica que trata de los aparatos que operan mediante el flujo de haces de electrones en el vacío o en un gas a baja presión" no aclara mucho la importancia extraordinaria de esta rama joven de la ciencia. Sin embargo, a cada instante se están palpando sus frutos. Los tubos de neón, las puertas que abren con "ojo eléctrico", el telégrafo, el teletipo de las agencias periodísticas, las telefotos, la radio a transistores, el radar, la televisión, la telefonía celular, y las computadoras son algunos de los múltiples aparatos o dispositivos que se deben a ella. Su reinado comenzó a construirse con el descubrimiento del tubo de vacío por Thomas Alva Edison. La electrónica es el imperio del tubo. El período de mayor desarrollo va desde 1928 hasta la fecha, cuando continúan perfeccionándose diversos ingenios y prodigios, entre los cuales debe mencionarse la televisión en colores, que salva muchos obstáculos iniciales.

Apenas inventado el telégrafo en el primer decenio del siglo XIX, se pensó en transmitir por alambres no solo sonidos, sino también imágenes. El propósito no era fácil de lograr. Una palabra se compone de sílabas y la sílaba de letras, de manera que la descomposición necesaria para transmitir una después de la otra las partes constitutivas de un mensaje oral no presenta dificultades. El cerebro "suma" los sonidos que recibe y obtiene el pensamiento completo. Parecía imposible hacer lo mismo para transmitir un mensaje visual. Los primeros investigadores pensaron, no obstante, que ello podía hacerse descomponiendo la imagen y enviándola por partes a un receptor, donde debía ser reconstruida para que el ojo humano la viera completa. Los fragmentos debían llegar a la pantalla receptora con suficiente rapidez para que el espectador tuviera la sensación de ver la imagen de una sola vez, debido a que en la retina la imagen no se borra inmediatamente después de captada, sino que permanece un breve lapso. Esta "permanencia retiniana", que en el fondo es un defecto en la visión humana, es la que ha hecho posible la televisión. Los mismos principios que trataron de aplicar los investigadores del siglo pasado son los que ahora se aplican, aunque muy perfeccionados y afinados. En el moderno receptor de TV nos parece ver la pantalla iluminada globalmente por la imagen, pero eso no ocurre en realidad. Nunca hay iluminación más de un punto, con un pequeñísimo fragmento de la imagen transmitida, y luego otro punto, y otro y otro hasta infinito, en una vertiginosa sucesión, dando al espectador la sensación de que está viendo imágenes completas.

miércoles, 22 de octubre de 2008

PARTICULAS ELEMENTALES
Las partículas elementales son los constituyentes elementales de la materia. Originalmente el término partícula elemental se usó para toda partícula subatómica como los protones y neutrones, los electrones y otros tipos de partículas exóticas que sólo pueden encontrarse en los rayos cósmicos o en los grandes aceleradores de partículas, como los piones o los muones. Sin embargo, a partir de los años 1970 quedó claro que los protones y neutrones son partículas compuestas de otras partículas más simples. Actualmente el nombre partícula elemental se usa para las partículas, que hasta donde se sabe, no están formadas por partículas más simples en interacción.

INTERACCIONES FISICA
En física, interacciones fundamentales se denominan a las cuatro interacciones fundamentales existentes en nuestro universo. Según el modelo estándar, las partículas que interaccionan con las partículas materiales, fermiones, son los bosones.
TIPOS DE INTERACCIONES FISICAS
Existen cuatro tipos de interacciones fundamentales: interacción nuclear fuerte, interacción nuclear débil, interacción electromagnética e interacción gravitatoria. Casi toda la historia de la física moderna se ha centrado en la unificación de estas interacciones, hasta ahora tanto la interacción débil y la electromagnética se han podido unificar en el interacción electrodébil.[1] En cambio, la unificación de la fuerza fuerte con esta electrodébil es el motivo de toda la teoría de la gran unificación. Y finalmente, la teoría del todo involucraría esta interacción electronuclear con la gravedad.
*Interacción gravitatoria:
Es la más conocida de las interacciones debido a que a grandes distancias, como las observadas habitualmente, tiene mayores impactos que las demás. Junto al electromagnetismo, son las interacciones que actúan a grandes distancias y contraria a esta, tiene solo carácter de atracción. En comparación con el resto de fuerzas es la mas débil.
Ésta hace que la energía interaccione entre sí y con la masa al ser ésta representación más intuitiva de energía, actúa sobre ella. La teoría de la relatividad general estudia esta interacción y la describe como una Curvatura del espacio-tiempo, en otras palabras a la deformación que sufre el espacio-tiempo por la presencia de grandes masas.
Según hipótesis del modelo estándar, la interacción gravitatoria, gravitación o fuerza de la gravedad, es transmitida por el gravitón. Cabe indicar que la teoría de la gravitación, en su formulación actual, no es una interacción que sea muy consistente con la descripción usual de la física de partículas. Sin embargo, debido a que la gravitación aparece sólo en distancias muy por encima del radio atómico esto permite en la práctica usar ambas teorías simultáneamente sin encontrar demasiado conflicto.
*Interacción electromagnética:
El electromagnetismo es la interacción que actúa entre partículas con carga eléctrica. Este fenómeno incluye a la fuerza electrostática, que actúa entre cargas en reposo, y el efecto combinado de las fuerzas eléctrica y magnética que actúan entre cargas que se mueven una respecto a la otra.
El electromagnetismo también tiene un alcance infinito y como es mucho más fuerte que la gravedad describe casi todos los fenómenos de nuestra experiencia cotidiana. Estos van desde el rayo láser y la radio, a la estructura atómica y a fenómenos tales como la fricción y el arco iris.
Los fenómenos eléctricos y magnéticos han sido observados desde la antigüedad, pero fue a partir de 1800 que los científicos descubrieron que la electricidad y el magnetismo son dos aspectos fundamentales de la misma interacción. En 1864, las ecuaciones de Maxwell había unificado rigurosamente ambos fenómenos. En 1905, la teoría de Einstein de la relatividad especial resolvió la cuestión de la constancia de la velocidad de la luz. También Einstein explicó el efecto fotoeléctrico al teorizar que la luz se transmitía también en forma de cuantos, que ahora llamamos fotones. A partir de 1927, Paul Dirac unifica la mecánica cuántica con la teoría relativista del electromagnetismo, la teoría de la electrodinámica cuántica, que se completó en la década de 1940.
*Interacción nuclear fuerte:
La interacción fuerte, también conocida como interacción nuclear fuerte, es la interacción que permite a unirse a los quarks para formar hadrones. La interacción electromagnética se da entre partículas cargadas eléctricamente, aquí las partículas también tienen carga, la carga de color. Su accionar a pesar de ser el más fuerte sólo se lo aprecia a muy cortas distancias tales como el radio atómico. Según el modelo estándar, la partícula mediadora de esta fuerza es el gluón.[4] La teoría que describe a esta interacción es la cromodinámica cuántica (QCD) y fue propuesta por David Politzer, Frank Wilczek y David Gross en la década de 1980.
Como resultado colateral de la interacción entre quarks, existe una manifestación de la fuerza nuclear fuerte que explica que dentro del núcleo atómico a los protones y neutrones. Debido a la carga positiva de los protones, para que éstos se encuentren estables en el núcleo debía existir una fuerza mas fuerte que la electromagnética para retenerlos. Ahora sabemos que la verdadera causa de que los protones y neutrones no se desestabilicen es la llamada interacción fuerte residual.[5] Esta interacción entre nucleones (protones y neutrones) se produce a través de parejas de quark-antiquark en forma de piones.
*Interacción nuclear débil:
La interacción débil, también conocida como interacción nuclear débil, se acopla a un tipo de carga llamada sabor, que la poseen los quarks y los leptones. Esta interacción es la causante de los cambios de sabor en estas partículas, en otras palabras es la responsable que de quarks y leptones decaigan en partículas mas livianas, además es la que produce desintegraciones beta.[6] La teoría de Glashow-Weinberg-Salam estudia la interacción débil y la electrodinámica cuántica de manera unificada en lo que se llama Modelo electrodébil.
Según el modelo estándar, la interacción débil es mediada por los bosones W y Z que son partículas muy masivas. Su intensidad es menor que la intensidad de la electromagnética y su alcance es menor que el de la interacción fuerte. Al igual que la interacción fuerte y la gravitatoria es esta una interacción únicamente atractiva.
INTERACCIONES RESPONSABLES DE MANTENER LOS ATOMOS UNIDOS
La interacción nuclear fuerte es una de las cuatro "fuerzas" o interacciones fundamentales que el modelo estándar actual de la Física establece para explicar las interacciones entre las partículas conocidas.
Esta fuerza es la responsable de mantener unidos a los nucleones (protón y neutrón) que subsisten en el núcleo atómico, venciendo a la repulsión electromagnética entre los protones que poseen carga eléctrica del mismo signo (positiva) y haciendo que los neutrones, que no tienen carga eléctrica, permanezcan unidos entre sí y también a los protones.
Los efectos de esta fuerza de interacción sólo se aprecian a distancias muy pequeñas (menores a 1 fm), del tamaño de los núcleos atómicos y no se perciben a distancias mayores a 1fm. A esta característica se le conoce como ser de corto alcance, en contraposición con la fuerza gravitatoria o la fuerza electromagnética que son de largo alcance (realmente el alcance de estas dos es infinito).
MASA DEL ELECTRON
Los electrones tienen una masa pequeña respecto al protón, y su movimiento genera corriente eléctrica en la mayoría de los metales. Estas partículas desempeñan un papel primordial en la química ya que definen las atracciones con otros átomos.

MASA DEL PROTON
Partícula subatómica que forma parte del núcleo del Atomo. El protón tiene una carga positiva y una masa 1.840 veces mayor a la del electrón (que, por convención, es igual a 1). En un átomo estable, el número de protones en el núcleo es igual al de los electrones. Al protón y al neutrón se les denomina también nucleones.

El núcleo del atómo de hidrógeno está formado por un único protón. La masa de un protón es de 1,6726 × 10-27 kg, aproximadamente 1.836 veces la del electrón. Por tanto, la masa de un átomo está concentrada casi exclusivamente en su núcleo.

El protón tiene un momento angular intrínseco, o espín, y por tanto un momento magnético. Por otra parte, el protón cumple el principio de exclusión. El número atómico de un elemento indica el número de protones de su núcleo, y determina de qué elemento se trata.
MASA DEL NEUTRON
Es una partícula fundamental sin carga eléctrica que, junto con los protones, representa un componente fundamental de los núcleos del Atomo. Tiene una masa de apenas 1,675 x 1 o-Z4 gramos/ muy poco superior a la del Protón.

En el interior del núcleo permanece en una configuración estable; aislado, el neutrón es inestable y después de aproximadamente diez minutos decae (es decir se transforma) en un protón y en un electrón.

Los neutrones tienen un papel fundamental en los estudios de astrofísica, porque algunas estrellas están formadas exclusivamente por cúmulos compactos de estas partículas y por ello toman el nombre de Estrellas de neutrones.
ELECTROSCOPIO
El electroscopio es un instrumento que permite determinar la presencia de cargas eléctricas y su signo.
El electroscopio sencillo consiste en una varilla metálica vertical que tiene una bolita en la parte superior y en el extremo opuesto dos láminas de oro muy delgadas. La varilla está sostenida en la parte superior de una caja de vidrio transparente con un armazón de metal en contacto con tierra. Al acercar un objeto electrizado a la esfera, la varilla se electrifica y las laminillas cargadas con igual signo que el objeto se repelen, siendo su divergencia una medida de la cantidad de carga que han recibido. La fuerza de repulsión electrostática se equilibra con el peso de las hojas. Si se aleja el objeto de la esfera, las láminas, al perder la polarización, vuelven a su posición normal.
Cuando un electroscopio se carga con un signo conocido, puede determinarse el tipo de carga eléctrica de un objeto aproximándolo a la esfera. Si las laminillas se separan significa que el objeto está cargado con el mismo tipo de carga que el electroscopio. De lo contrario, si se juntan, el objeto y el electroscopio tienen signos opuestos.
Un electroscopio cargado pierde gradualmente su carga debido a la conductividad eléctrica del aire producida por su contenido en iones. Por ello la velocidad con la que se carga un electroscopio en presencia de un campo eléctrico o se descarga puede ser utilizada para medir la densidad de iones en el aire ambiente. Por este motivo, el electroscopio se puede utilizar para medir la radiación de fondo en presencia de materiales radiactivos.
El primer electroscopio fue creado por el médico inglés William Gilbert para realizar sus experimentos con cargas electrostáticas. Actualmente este instrumento no es más que una curiosidad de museo, dando paso a mejores instrumentos electrónicos. Un electroscopio es un dispositivo que permite detectar la presencia de un objeto cargado aprovechando el fenómeno de separación de cargas por inducción. Explicaremos su funcionamiento empezando por ver que sucede con las cargas en los materiales conductores.
Si acercamos un cuerpo cargado con carga positiva, por ejemplo una lapicera que ha sido frotada con un paño, las cargas negativas del conductor experimentan una fuerza atractiva hacia la lapicera . Por esta razón se acumulan en la parte mas cercana a ésta. Por el contrario las cargas positivas del conductor experimentan una fuerza de repulsión y por esto se acumulan en la parte más lejana a la lapicera.
Lo que a ocurrido es que las cargas se han desplazado pero la suma de cargas positivas es igual a la suma de cargas negativos. Por lo tanto la carga neta del conductor sigue siendo nula.
Consideremos ahora que pasa en el electroscopio. Recordemos que un electroscopio esta formado esencialmente por un par de hojas metálicas unidas en un extremo. Por ejemplo una tira larga de papel de aluminio doblada al medio. Si acercamos la lapicera cargada al electroscopio, como se indica en la figura, la carga negativa será atraída hacia el extremo mas cercano a la lapicera mientras que la carga positiva se acumulará en el otro extremo, es decir que se distribuirá entre las dos hojas del electroscopio. La situación se muestra en la figura: los dos extremos libres del electroscopio quedaron cargados positivamente y como las cargas de un mismo signo se rechazan las hojas del electroscopio se separan.
Si ahora alejamos la lapicera, las cargas positivas y negativas del electroscopio vuelven a redistribuirse, la fuerza de repulsión entre las hojas desaparece y se juntan nuevamente. ¿Qué pasa si tocamos con un dedo el extremo del electroscopio mientras esta cerca de la lapicera cargada? La carga negativa acumulada en ese extremo "pasará" a la mano y por lo tanto el electroscopio queda cargado positivamente. Debido a esto las hojas no se juntan cuando alejamos la lapicera.

miércoles, 15 de octubre de 2008

HIstoria del Calculo

De la Grecia Clásica a la Edad Media

Reconstrucción de un ábaco romano
Reconstrucción de un ábaco romano
Un ábaco moderno
Un ábaco moderno

El término "cálculo" procede del latín calculum, piedrecita que se mete en el calzado y que produce molestia. Precisamente tales piedrecitas ensartadas en tiras constituían el ábaco romano que, junto con el suwanpan chino, constituyen las primeras máquinas de calcular en el sentido de contar.

Los antecedentes de procedimiento de cálculo, como algoritmo, se encuentran en los que utilizaron los geómetras griegos, Eudoxo en particular, en el sentido de llegar por aproximación de restos cada vez más pequeños, a una medida de figuras curvas; así como Diofanto precursor del álgebra.

La consideración del cálculo como una forma de razonamiento abstracto aplicado en todos los ámbitos del conocimiento se debe a Aristóteles, quien en su Lógica fue el primero en formalizar y simbolizar los tipos de razonamientos categóricos (silogismos). Este trabajo sería completado más tarde por los estoicos, los megáricos, la Escolástica.

El algoritmo actual de cálculo aritmético como universal es fruto de un largo proceso histórico a partir de las aportaciones de al-Juwarizmi en el siglo IX.[2]

Se introdujo el 0, ya de antiguo conocido en la India y se construye definitivamente el sistema decimal de diez cifras con valor posicional de las mismas, introducido en Europa por los árabes. La escritura antigua de números en Babilonia, en Egipto, en Grecia o en Roma, hacía muy difícil un procedimiento mecánico de cálculo.[3]

El sistema decimal fue muy importante para el desarrollo de la contabilidad de los comerciantes de la Baja Edad Media, en los inicios del capitalismo.

El concepto de función por tablas ya era practicado de antiguo pero adquirió especial importancia en la Universidad de Oxford en el siglo XIV.[4] La idea de un lenguaje o algoritmo capaz de determinar todas las verdades, incluidas las de la fe, aparecen en el intento de Raimundo Lulio en su Ars Magna

A fin de lograr una operatividad mecánica se confeccionaban unas tablas a partir de las cuales se podía generar un algoritmo prácticamente mecánico. Este sistema de tablas ha perdurado en algunas operaciones durante siglos, como las tablas de logaritmos, o las funciones trigonométricas; las tablas venían a ser como la calculadora de hoy día; un instrumento imprescindible de cálculo. Las amortizaciones de los créditos, por ejemplo,se calculaban hasta hace poco a partir de tablas elementales.

A finales de la Edad Media la discusión entre los partidarios del ábaco y los partidarios del algoritmo se decantó claramente por estos últimos.[5] De especial importancia es la creación del sistema contable por partida doble inventado por Luca Pacioli fundamental para el progreso del capitalismo en el Renacimiento.[6]

Renacimiento

Ejemplo de aplicación de un cálculo algebraico a la resolución de un problema según la interpretación de una teoría física
La expresión del cálculo algebraico y = xt, indica las relaciones sintácticas que existen entre tres variables que no tienen significado alguno.
Pero si interpretamos y como espacio, x como velocidad y t como tiempo, tal ecuación modeliza una teoría física que establece que el espacio recorrido por un móvil con velocidad constante es directamente proporcional a la velocidad con que se mueve y al tiempo que dura su movimiento.
Al mismo tiempo, según dicha teoría, sirve para resolver el problema de calcular cuántos kilómetros ha recorrido un coche que circula de Madrid a Barcelona a una velocidad constante de 60 km/h durante 4 horas de recorrido.
  • 240 kilómetros recorridos = 60 km x 4 h



El sistema que usamos actualmente fue introducido por Luca Pacioli en 1494, y fue creado y desarrollado para responder a la necesidad de la contabilidad en los negocios de la burguesía renacentista.

El desarrollo del álgebra (con la introducción de un sistema de símbolos por un lado, y la resolución de problemas por medio de las ecuaciones) vino de la mano de los grandes matemáticos renacentistas como Tartaglia, Stévin, Cardano o Vieta y fue esencial para el planteamiento y solución de los más diversos problemas que surgieron en la época como consecuencia de los grandes descubrimientos que hicieron posible el progreso científico que surgirá en el siglo XVII.[7]

Siglos XVII y XVII

Página del artículo de Leibniz "Explication de l'Arithmétique Binaire", 1703/1705
Página del artículo de Leibniz "Explication de l'Arithmétique Binaire", 1703/1705

En el siglo XVII el cálculo conoció un enorme desarrollo siendo los autores más destacados Descartes,[8] Pascal[9] y, finalmente, Leibniz y Newton[10] con el cálculo infinitesimal que en muchas ocasiones ha recibido simplemente, por absorción, el nombre de cálculo.

El concepto de cálculo formal en el sentido de algoritmo reglado para el desarrollo de un razonamiento y su aplicación al mundo de lo real[11] adquiere una importancia y desarrollo enorme respondiendo a una necesidad de establecer relaciones matemáticas entre diversas medidas, esencial para el progreso de la ciencia física que, debido a esto, es tomada como nuevo modelo de Ciencia frente a la especulación tradicional filosófica, por el rigor y seguridad que ofrece el cálculo matemático. Cambia así el sentido tradicional de la Física como Ciencia de la Naturaleza y toma el sentido de ciencia que estudia los cuerpos materiales, en cuanto materiales.

A partir de entonces el propio sistema de cálculo permite establecer modelos sobre la realidad física, cuya comprobación experimental[12] supone la confirmación de la teoría como sistema. Es el momento de la consolidación del llamado método científico cuyo mejor exponente es en aquel momento la Teoría de la Gravitación Universal y las leyes de la Mecánica de Newton.[13]





Siglos XIX y XX

La Lógica de Aristoteles fue desarrollada y se mantuvo prácticamente como tal a lo largo de los siglos. Kant, a finales del siglo XVIII, opinaba que la Lógica aristotélica no había sufrido modificaciones sustanciales por tratarse de una ciencia formal, a priori y analítica.

Durante el siglo XIX y XX el desarrollo científico y la creación de modelos teóricos fundados en sistemas de cálculo aplicables tanto en mecánica como en electromagnetismo y radioactividad, etc. así como en astronomía fue impresionante. Los sistemas de cálculo matemático amplían horizontes nuevos geometrías no euclidianas que encuentran aplicación en modelos teóricos de astronomía y física. El mundo deja de ser un conjunto de infinitas partículas que se mueven en un espacio-tiempo absoluto y se convierte en un espacio de configuración o espacio de fases de n dimensiones que físicamente se hacen consistentes en la teoría de la relatividad, la mecánica cuántica, la teoría de cuerdas etc. que cambia por completo la imagen del mundo físico.

La lógica asimismo sufrió una transformación radical. La formalización simbólica fue capaz de integrar las leyes lógicas en un cálculo matemático, hasta el punto que la distinción entre razonamiento lógico-formal y cálculo suele considerarse como meramente utilitaria.

En la segunda mitad del siglo XIX y primer tercio del XX, a partir del intento de formalización de todo el sistema matemático, Frege, y de matematización de la lógica, (Bolzano, Boole, Whitehead, Russell) fue posible la generalización del concepto como cálculo lógico. Se lograron métodos muy potentes de cálculo, sobre todo a partir de la posibilidad de tratar como “objeto” conjuntos de infinitos elementos, dando lugar a los números transfinitos de Cantor.

Mediante el cálculo la lógica encuentra nuevos desarrollos como lógicas modales y lógicas polivalentes.

Los intentos de axiomatizar el cálculo como cálculo perfecto por parte de Hilbert y Poincaré, llevaron, como consecuencia de diversas paradojas (Cantor, Russell etc.) a nuevos intentos de axiomatización, Axiomas de Zermelo-Fraenkel y a la demostración de Gödel de la imposibilidad de un sistema de cálculo perfecto: consistente, decidible y completo en 1931, de grandes implicaciones lógicas, matemáticas y científicas.

Actualidad [editar]

En la actualidad, el cálculo en su sentido más general, en tanto que cálculo lógico interpretado matemáticamente como sistema binario, y físicamente hecho material mediante la lógica de circuitos eléctrónicos, ha adquirido una dimensión y desarrollo impresionante por la potencia de cálculo conseguida por los ordenadores, propiamente máquinas computadoras. La capacidad y velocidad de cálculo de estas máquinas hace lo que humanamente sería imposible: millones de operaciones/s

El cálculo así utilizado se convierte en un instrumento fundamental de la investigación científica por las posibilidades que ofrece para la modelización de las teorías científicas, adquiriendo especial relevancia en ello el cálculo numérico.

viernes, 10 de octubre de 2008

Historia de Java

La tecnología Java se creó como una herramienta de programación para ser usada en un proyecto de set-top-box en una pequeña operación denominada the Green Project en Sun Microsystems en el año 1991. El equipo (Green Team), compuesto por trece personas y dirigido por James Gosling, trabajó durante 18 meses en Sand Hill Road en Menlo Park en su desarrollo.

El lenguaje se denominó inicialmente Oak (por un roble que había fuera de la oficina de Gosling), luego pasó a denominarse Green tras descubrir que Oak era ya una marca comercial registrada para adaptadores de tarjetas gráficas y finalmente se renombró a Java.

El término Java fue acuñado en una cafetería frecuentada por algunos de los miembros del equipo. Pero no está claro si es un acrónimo o no, aunque algunas fuentes señalan que podría tratarse de las iniciales de sus creadores: James Gosling, Arthur Van Hoff, y Andy Bechtolsheim. Otros abogan por el siguiente acrónimo, Just Another Vague Acronym ("sólo otro acrónimo ambiguo más"). La hipótesis que más fuerza tiene es la que Java debe su nombre a un tipo de café disponible en la cafetería cercana, de ahi que el icono de java sea una taza de cafe caliente. Un pequeño signo que da fuerza a esta teoría es que los 4 primeros bytes (el número mágico) de los archivos .class que genera el compilador, son en hexadecimal, 0xCAFEBABE. Otros simplemente dicen que el nombre fue sacado al parecer de una lista aleatoria de palabras.

Los objetivos de Gosling eran implementar una máquina virtual y un lenguaje con una estructura y sintaxis similar a C++. Entre junio y julio de 1994, tras una sesión maratoniana de tres días entre John Gaga, James Gosling, Joy Naughton, Wayne Rosing y Eric Schmidt, el equipo reorientó la plataforma hacia la Web. Sintieron que la llegada del navegador web Mosaic, propiciaría que Internet se convirtiese en un medio interactivo, como el que pensaban era la televisión por cable. Naughton creó entonces un prototipo de navegador, WebRunner, que más tarde sería conocido como HotJava.

En 1994, se les hizo una demostración de HotJava y la plataforma Java a los ejecutivos de Sun. Java 1.0a pudo descargarse por primera vez en 1994, pero hubo que esperar al 23 de mayo de 1995, durante las conferencias de SunWorld, a que vieran la luz pública Java y HotJava, el navegador Web. El acontecimiento fue anunciado por John Gage, el Director Científico de Sun Microsystems. El acto estuvo acompañado por una pequeña sorpresa adicional, el anuncio por parte de Marc Andreessen, Vicepresidente Ejecutivo de Netscape, que Java sería soportado en sus navegadores. El 9 de enero del año siguiente, 1996, Sun fundó el grupo empresarial JavaSoft para que se encargase del desarrollo tecnológico. [1] Dos semanas más tarde la primera versión de Java fue publicada.

La promesa inicial de Gosling era Write Once, Run Anywhere (Escríbelo una vez, ejecútalo en cualquier lugar), proporcionando un lenguaje independiente de la plataforma y un entorno de ejecución (la JVM) ligero y gratuito para las plataformas más populares de forma que los binarios (bytecode) de las aplicaciones Java pudiesen ejecutarse en cualquier plataforma.

El entorno de ejecución era relativamente seguro y los principales navegadores web pronto incorporaron la posibilidad de ejecutar applets Java incrustadas en las páginas web.

Java ha experimentado numerosos cambios desde la versión primigenia, JDK 1.0, así como un enorme incremento en el número de clases y paquetes que componen la librería estándar.

miércoles, 8 de octubre de 2008

Historia del Blogger (Bitácora)

Blogger (servicio)

De Wikipedia, la enciclopedia libre

Para la persona que mantiene un blog, véase blogger (usuario).

Blogger, una palabra creada por Pyra Labs (su creador), es un servicio para crear y publicar un blog de manera fácil. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el hosting de los blogs su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP)

Historia de Blogger [editar]

Lanzado en Agosto de 1999, es una de los primeras herramientas de publicación de blogs y es acreditado por haber ayudado a popularizar el uso de formularios. Más específicamente, en vez de escribir a mano el HTML y frecuentemente subir las nuevas publicaciones, el usuario puede publicar a su weblog llenando un formulario en el sitio web de Blogger. Esto puede ser realizado por cualquier navegador y los resultados son inmediatos.

En el 2003, Pyra Labs fue adquirido por la empresa Google; por ende, también Blogger. Google consiguió los recursos que Pyra requería. Más adelante, las "características premium", que eran pagadas, fueron habilitadas para el público en general gracias a la ayuda de Google.

En el 2004, Google compró Picasa y su utilidad de intercambio de fotografías Hello. Esto permitió a los usuarios de Blogger poner fotografías en sus blogs. Así el photoblogging (o la posibilidad de colgar fotos en los blogs) se hacía realidad en Blogger con la integración de Hello.

El 9 de mayo de 2004, Blogger fue relanzado, añadiendo nuevas plantillas de diseño basadas en CSS, archivaje individual de publicaciones, comentarios y publicación por e-mail. Después Google lanzaría una herramienta llamada BlogThis! en la barra de búsqueda Google. La herramienta BlogThis! permite abrir una nueva ventana con un formulario de publicación que permite al usuario publicar sin necesidad de visitar la página principal de Blogger e ingresar un usuario.

A finales de 2006, con el nuevo Blogger Beta, se hizo posible lo que tanta falta hacía en Blogger: el poder publicar post por categorías o etiquetas, (labels) como son llamados en Blogger, así como la posibilidad de poner blogs de acceso restringido o privados para solo unos cuantos, entre otras funciones.

Inicialmente el servicio de Blogger Beta no permitía hacer los cambios a la plantilla modificando el código HTML. Actualmente esto ha quedado cubierto, y se están migrando las cuentas anteriores de Blogger al nuevo Blogger Beta sin que signifique ninguna molestia a sus usuarios.

La actualización al nuevo Blogger requiere el registro de una cuenta de Google e incluye, entre otras mejoras, el servicio de etiquetado de posts y una mejora en la interfaz de edición y publicación de artículos. La nueva versión no modifica en absoluto la apariencia de los blogs creados en la versión antigua, salvo algunos pequeños problemas con acentos y caracteres especiales como la letra 'ñ'. Una vez actualizado un blog, puede decidirse dar un paso más y actualizar la plantilla, con lo que se perderían las modificaciones realizadas al HTML. Por ello se recomienda hacer copia de seguridad de la plantilla (y todos los snippets que se hayan ido incluyendo) antes de asimilar el nuevo conjunto de plantillas.