miércoles, 15 de junio de 2011

TRANSFERENCIA DE CALOR POR RADIACIÓN.
La radiación presenta una diferencia fundamental respecto a la conducción y la convección: las sustancias que intercambian calor no tienen que estar en contacto, sino que pueden estar separadas por un vacío. La radiación es un término que se aplica genéricamente a toda clase de fenómenos relacionados con ondas electromagnéticas (véase Radiación electromagnética). Algunos fenómenos de la radiación pueden describirse mediante la teoría de ondas (véase Movimiento ondulatorio), pero la única explicación general satisfactoria de la radiación electromagnética es la teoría cuántica. En 1905, Albert Einstein sugirió que la radiación presenta a veces un comportamiento cuantizado: en el efecto fotoeléctrico, la radiación se comporta como minúsculos proyectiles llamados fotones y no como ondas. La naturaleza cuántica de la energía radiante se había postulado antes de la aparición del artículo de Einstein, y en 1900 el físico alemán Max Planck empleó la teoría cuántica y el formalismo matemático de la mecánica estadística para derivar una ley fundamental de la radiación. La expresión matemática de esta ley, llamada distribución de Planck, relaciona la intensidad de la energía radiante que emite un cuerpo en una longitud de onda determinada con la temperatura del cuerpo. Para cada temperatura y cada longitud de onda existe un máximo de energía radiante. Sólo un cuerpo ideal (cuerpo negro) emite radiación ajustándose exactamente a la ley de Planck. Los cuerpos reales emiten con una intensidad algo menor.
La contribución de todas las longitudes de onda a la energía radiante emitida se denomina poder emisor del cuerpo, y corresponde a la cantidad de energía emitida por unidad de superficie del cuerpo y por unidad de tiempo. Como puede demostrarse a partir de la ley de Planck, el poder emisor de una superficie es proporcional a la cuarta potencia de su temperatura absoluta. El factor de proporcionalidad se denomina constante de Stefan-Boltzmann en honor a dos físicos austriacos, Joseph Stefan y Ludwig Boltzmann que, en 1879 y 1884 respectivamente, descubrieron esta proporcionalidad entre el poder emisor y la temperatura. Según la ley de Planck, todas las sustancias emiten energía radiante sólo por tener una temperatura superior al cero absoluto. Cuanto mayor es la temperatura, mayor es la cantidad de energía emitida. Además de emitir radiación, todas las sustancias son capaces de absorberla. Por eso, aunque un cubito de hielo emite energía radiante de forma continua, se funde si se ilumina con una lámpara incandescente porque absorbe una cantidad de calor mayor de la que emite.
Las superficies opacas pueden absorber o reflejar la radiación incidente. Generalmente, las superficies mates y rugosas absorben más calor que las superficies brillantes y pulidas, y las superficies brillantes reflejan más energía radiante que las superficies mates. Además, las sustancias que absorben mucha radiación también son buenos emisores; las que reflejan mucha radiación y absorben poco son malos emisores. Por eso, los utensilios de cocina suelen tener fondos mates para una buena absorción y paredes pulidas para una emisión mínima, con lo que maximizan la transferencia total de calor al contenido de la cazuela.
Algunas sustancias, entre ellas muchos gases y el vidrio, son capaces de transmitir grandes cantidades de radiación. Se observa experimentalmente que las propiedades de absorción, reflexión y transmisión de una sustancia dependen de la longitud de onda de la radiación incidente. El vidrio, por ejemplo, transmite grandes cantidades de radiación ultravioleta, de baja longitud de onda, pero es un mal transmisor de los rayos infrarrojos, de alta longitud de onda. Una consecuencia de la distribución de Planck es que la longitud de onda a la que un cuerpo emite la cantidad máxima de energía radiante disminuye con la temperatura. La ley de desplazamiento de Wien, llamada así en honor al físico alemán Wilhelm Wien, es una expresión matemática de esta observación, y afirma que la longitud de onda que corresponde a la máxima energía, multiplicada por la temperatura absoluta del cuerpo, es igual a una constante, 2.878 micrómetros-Kelvin. Este hecho, junto con las propiedades de transmisión del vidrio antes mencionadas, explica el calentamiento de los invernaderos. La energía radiante del Sol, máxima en las longitudes de onda visibles, se transmite a través del vidrio y entra en el invernadero. En cambio, la energía emitida por los cuerpos del interior del invernadero, predominantemente de longitudes de onda mayores, correspondientes al infrarrojo, no se transmiten al exterior a través del vidrio. Así, aunque la temperatura del aire en el exterior del invernadero sea baja, la temperatura que hay dentro es mucho más alta porque se produce una considerable transferencia de calor neta hacia su interior.
Además de los procesos de transmisión de calor que aumentan o disminuyen las temperaturas de los cuerpos afectados, la transmisión de calor también puede producir cambios de fase, como la fusión del hielo o la ebullición del agua. En ingeniería, los procesos de transferencia de calor suelen diseñarse de forma que aprovechen estos fenómenos. Por ejemplo, las cápsulas espaciales que regresan a la atmósfera de la Tierra a velocidades muy altas están dotadas de un escudo térmico que se funde de forma controlada en un proceso llamado ablación para impedir un sobrecalentamiento del interior de la cápsula. La mayoría del calor producido por el rozamiento con la atmósfera se emplea en fundir el escudo térmico y no en aumentar la temperatura de la cápsula.
La convección es el mecanismo transferencia de calor a través de un fluido con movimiento masivo de éste. En la convección existe movimiento del fluido a nivel macroscópico mientras que en la conducción existe movimiento a nivel microscópico, atómico o molecular, pero no a nivel macroscópico, entendiendo como nivel mácroscópico movimiento de volúmenes relativamente grandes del fluido.

- La convección se clasifica en natural y forzada. En la convección forzada se obliga al fluido a fluir mediante medios externos, como un ventilador o una bomba. En la convección natural el movimiento del fluido es debido a causas naturales, como el efecto de flotación, el cual se manifiesta con la subida del fluido caliente y el descenso del fluido frio.

- La convección forzada se clasifica a su vez en externa e interna dependiendo de si el flujo de fluido es interno o externo. El flujo de un fluido se clasifica como interno o externo dependiendo de si se fuerza al fluido a fluir por un canal confinado ( superficie interior ) o por una superficie abierta. El flujo de un fluido no limitado por una superfcie ( placa, alambre , exterior de un tubo ) es flujo externo. El flujo por un tubo o ducto es flujo interno si ese fluido está limitado por completo por superficies sólidas.El flujo de líquidos en un tubo se conoce como flujo en canal abierto si ese tubo está parcialmente lleno con el líquido y se tiene una superficie libre.

- La velocidad de transferencia de calor a través de un fluido es mucho mayor por convección que por conducción. Cuanto mayor es la velocidad del fluido mayor es la velocidad de transferencia de calor.

- La transferencia de calor por convección depende de las propiedades del fluido, de la superficie en contacto con el fluido y del tipo de flujo. Entre las propiedades del fluido se encuentran: la viscosidad dinámica m, la conductividad térmica k, la densidad r. También se podría considerar que depende de la viscosidad cinemática n, puesto que n = m /r . Entre las propiedades de la superficie que intervienen en la convección están la geometría y la aspereza. El tipo de flujo, laminar o turbulento, también influye en la velocidad de transferencia de calor por convección.

- En cualquier caso, la velocidad de transferencia de calor por convección siempre es proporcional a la diferencia de temperatura entre la superficie y el fluido. Este hecho se modela matemáticamente mediante la Ley de Enfriamiento de Newton: q-punto = h ( Ts - Tf ) o
Q-punto = h As ( Ts - Tf ) donde Ts es la temperatura de la superficie en contacto con el fluido y Tf es la temperatura del fluido lo suficientemente lejos de dicha superficie. La influencia de las propiedades del fluido, de la superficie y del flujo se cuantifica en el coeficiente de película o coeficiente de transferencia de calor por convección ( h ) .


La transferencia de energía térmica o calor entre dos cuerpos diferentes por conducción o convección requiere el contacto directo de las moléculas de diferentes cuerpos, y se diferencian en que en la primera no hay movimiento macroscópico de materia mientras que en la segunda sí lo hay. Para la materia ordinaria la conducción y la convección son los mecanismos principales en la "materia fría", ya que la transferencia de energía térmica por radiación sólo representa una parte minúscula de la energía transferida. La transferencia de energía por radiación aumenta con la cuarta potencia de la temperatura (T4), siendo sólo una parte importante a partir de temperaturas superiores a varios miles de kelvin.


Ley de Fourier.
Es la forma de transmitir el calor en cuerpos sólidos; se calienta un cuerpo, las moléculas que reciben directamente el calor aumentan su vibración y chocan con las que las rodean; estas a su vez hacen lo mismo con sus vecinas hasta que todas las moléculas del cuerpo se agitan, por esta razón, si el extremo de una varilla metálica se calienta con una flama, transcurre cierto tiempo hasta que el calor llega al otro extremo. El calor no se transmite con la misma facilidad por todos los cuerpos. Existen los denominados "buenos conductores del calor", que son aquellos materiales que permiten el paso del calor a través de ellos. Los "malos conductores o aislantes" son los que oponen mucha resistencia al paso de calor.
La conducción térmica está determinada por la ley de Fourier. Establece que la tasa de transferencia de calor por conducción en una dirección dada, es proporcional al área normal a la dirección del flujo de calor y al gradiente de temperatura en esa dirección.

miércoles, 1 de junio de 2011

1961: El primer robot

Sin fanfarria, el mundo está trabajando primer robot se unió a la cadena de montaje en la planta de General Motors en el municipio de Ewing en la primavera de 1961. No era nada como el humanoide robots metálicos visto en el cine y la televisión en esos días en los Estados Unidos y Japón.

Se trataba de un molde de fundición automatizados que cayó en caliente puerta roja mangos y otras piezas del coche como en charcos de líquido refrigerante en una línea que les mueve a lo largo de los trabajadores para recortar y pulir. Su característica más clara fue un control sobre una armadura de acero que elimina la necesidad de un hombre de tocar las piezas del coche que acaba de hacer de acero fundido.

Ejecutivos de GM no darlo a conocer en el momento porque, como el creador de la Unimate morir-lanzador dijo la semana pasada, era una tecnología experimental y tenían miedo que no iba a funcionar.

Pero algún día en el próximo milenio, cuando las cifras automatizados como los que se ven en la "guerra de las galaxias" películas de hoy son comunes, los historiadores mirarán hacia atrás en la planta de GM Ternstedt División de Parkway Avenue en las afueras de Trenton como el Edén de los robots.

Sin embargo, para gran disgusto de los desarrolladores de la Ternstedt morir-lanzador, "Padre de la Robótica" de José F. Engelberger, los japoneses se puede ver como la gente que se hizo con el concepto de industrial de Estados Unidos y tomó la robótica para el siguiente nivel de desarrollo .

¿Por qué y cómo es una historia que arroja luz sobre la situación de hoy a Japón como mayor fabricante mundial de automóviles, así como la razón de la planta de GM cerró para siempre el verano pasado después de 60 años.

Es una historia de la fascinación de los Estados Unidos con los robots de entretenimiento y el estilo japonés de la práctica, Engelberger, dijo.

Robótica había sido posible gracias a los avances en las tecnologías electrónicas y mecánicas realizadas durante la Segunda Guerra Mundial, Engelberger, dijo, y por la década de 1960 tanto el japonés y las sociedades de América estaban preparados y listos para la automatización en gran escala.

La gente en el Gran Trenton sin duda sabía que iba a venir: En una revista mensual producida por la Cámara de Trenton de Comercio, por ejemplo, había un artículo en un teléfono servicio de contestador ciudad con una larga fila de operadores sentado en un cuadro gigante y una camiseta nueva campana anuncio que muestra a un secretario sola manipulación de 30 líneas en un teléfono más pequeño que una caja de pan.

"Hubo muy poca oposición a la robótica de la mano de obra estadounidense", recordó Engelberger por teléfono de su negocio actual, compañera Robotics Inc., en Danbury, Connecticut "Me ayudó con la gente de trabajo que los primeros robots fueron puestos a trabajar haciendo calientes, peligrosos y el trabajo aburrido. "

Cuando Engelberger y su Unimation Inc. interpuso el Unimate morir-rueda en la planta de Ewing Ternstedt, 3.000 hombres y mujeres estaban en el empleo y pocos de ellos querían para operar el equipo viejo peligrosas para la puerta de moldeo manijas y similares.

El Ternstedt morir-lanzador trabajó casi todo el lado del reloj al lado del otro con la fuerza de trabajo enorme para más de 10 años y está ahora en exhibición en la historia industrial de la Institución Smithsonian en Washington.

El éxito de Unimate lo había puesto y, más tarde, soldadores robot y remachadoras en las plantas de automóviles en todo el mundo, incluido Japón. Engelberger compañía creció tanto en esos años que, en 1983, él sería capaz de vender por $ 107 millones.

Pero en los primeros años de comercialización de sus robots industriales en primer lugar, Engelberger no podía entender por qué los japoneses parecían más entusiasmados con la tecnología.

"Tuve un tiempo difícil con el industrial estadounidense", dijo Engelberger. Contó la historia de su aparición con el robot real por primera vez en una forma humanoide - llamado PUMA - en "The Tonight Show" con Johnny Carson, un par de años después de su Unimate debutó en Trenton.

"El robot hizo un comercial de cerveza y la gente le encantó. Se hizo cargo de todo el espectáculo", dijo Engelberger. "Pero después de eso, la única llamadas que recibió fueron de personas que quería que mi robot para el entretenimiento en la feria del condado."

Un grupo comercial lo invitó a Japón poco después, sin embargo, y Engelberger dijo que "se ponen 500 directivos de la industria en la sala y todos ellos estaban más interesados ​​en las aplicaciones más prácticas para la robótica.

"Los japoneses capturados en seguida. Es por eso que la robótica es una industria de $ 7000 millones y es dominada por Japón", dijo Engelberger.

Películas con robots en la década de 1950, popular tanto en los EE.UU. y Japón, abrir el apetito estadounidense por más de entretenimiento, pero provocó una revolución industrial a través del Pacífico.

Westinghouse Engelberger pagó los $ 107 millones por su Unimation Inc. en el 83, "y lo estropeado", dijo Engelberger. El gigante industrial finalmente vendió Unimation a una empresa francesa que está haciendo bien con él ahora, dijo.

"En Japón y otros países, no es la fijación del mismo a la entrega rápida de las inversiones, como hay en Estados Unidos ahora", se lamentó Engelberger.

El Unimate instaló en Ewing en 1961 tomó un par de años para obtener algún beneficio, añadió, y de GM se quejó nadie.

"Pero Estados Unidos no es más así", dijo.

Hoy, a los 73 años, Engelberger es la comercialización de un robot que parece un poco a R2-D2 de "Star Wars". Está rodando en 70 hospitales, la entrega de medicina y los mensajes a los pacientes y las estaciones de enfermería.

Compañera también está trabajando en una más humanoide, con armas robot de dos como C-3PO de "Star Wars", que está diseñado para ayudar a personas necesitadas de cuidados de enfermería a permanecer en sus hogares.

En cuanto a su primer robot, el Unimate Ternstedt, Engelberger dijo que estaba seguro de que podría ponerse en marcha otra vez si el Smithsonian lo dejaría fuera del museo.

BIOGRAFIA


A efectos legales se considera que Isaac Asimov nació el 2 de enero de 1920 en Petróvichi, República Socialista Federativa Soviética de Rusia (desde 1929 hasta ahora Óblast de Smolensk, Federación de Rusia, a 400 km al suroeste de Moscú y 16 kilómetros de la frontera con Bielorrusia actual).
Sus padres, Judah Asimov y Anna Rachel, de origen judeo-ruso, se trasladaron a Nueva York el 11 de enero de 1923, cuando el autor tenía tres años.
Su infancia transcurrió en el barrio neoyorquino de Brooklyn, donde el joven Isaac aprendió por sí mismo a leer a la edad de cinco años. La juventud del futuro escritor transcurrió entre los estudios y el trabajo en las distintas tiendas de golosinas que su padre rentaba en el barrio de Brooklyn. Fue entre esos estantes llenos de revistas donde el joven Asimov se encontró por primera vez con la ciencia ficción. Comenzó a escribir en su adolescencia temprana y a los 19 años inició la publicación de sus relatos de ciencia ficción en las revistas (ahora clásicas) de ficción llamadas «pulps».
Tenía un miedo a volar que hizo que sólo viajara en avión dos veces en toda su vida, lo que le hizo pensar que podía padecer de acrofobia. Asimismo padecíaclaustrofilia, es decir, le gustaban los lugares pequeños y cerrados. No confundir con claustrofobia, que es el miedo a dichos lugares.
Se graduó como bioquímico en la Universidad de Columbia en 1939. Al ser rechazado para ingresar a las escuelas de medicina de las universidades de Nueva York, regresó a Columbia y decidió tomar un postgrado de química, título que obtuvo en 1941. El siguiente año, 1942, fue particularmente significativo para Asimov; al partir hacia la ciudad de Filadelfia tomó un trabajo como investigador químico en los astilleros de la marina de guerra estadounidense, empleo que mantendría en el transcurso de la Segunda Guerra Mundial. En 1948 consiguió el doctorado en química lo que le permitió el acceso a la Universidad de Boston donde permanecería como asociado, pero sin opción a enseñar. La universidad deja de pagarle el salario en 1958, pero para entonces, los ingresos procedentes de su trabajo comoescritor son mayores que los que consigue con su labor universitaria. Asimov permanece en la facultad como profesor asociado, y en 1979 le ascienden a profesor titular. Sus documentos personales de los años 1965 en adelante se archivan en la Biblioteca Mugar Memorial de la Universidad de Boston, donde ocupan 464 cajas en 71 m de estanterías. En 1985 es elegido Presidente de la Asociación Humanista Americana, cargo que ocupa hasta su muerte en 1992. El sucesor, amigo y colega de Asimov en su trabajo como escritor fue Kurt Vonnegut. Fue también, hasta su muerte, vicepresidente honorario del club Mensa.
Asimov se casa el 26 de julio de 1942 con Gertrude Blugerman, con la que tiene dos hijos: David, nacido en 1951 y Robyn, en 1955. Tras un largo periodo de separación, se divorcian en 1973 y a finales de ese año se casa con Janet O. Jeppson.
Asimov muere el 6 de abril de 1992 tras un fallo coronario y renal. Le sobreviven su viuda Janet y sus hijos habidos en su primer matrimonio. En 2002, Janet Asimov reveló en su propia biografía que la muerte de Isaac Asimov fue debida al sida, enfermedad que contrajo durante una operación de bypass en 1982.

Obra

La carrera de Asimov puede dividirse en varios períodos. En sus primeros años el tema dominante fue la ciencia ficción, iniciándose con relatos cortos en 1939. En 1950 publica su primera novela Un guijarro en el cielo. Esta etapa duró hasta 1958, terminando con la publicación de El sol desnudo. A continuación, disminuyó de manera importante su producción de libros de ficción mientras se dedicaba a otros temas. En los siguientes 25 años publicó solamente cuatro libros de ciencia ficción. A partir de 1982, se inició la segunda etapa de su carrera en ciencia ficción con la publicación de Los límites de la Fundación. Desde entonces y hasta su muerte, Asimov publicaría muchas secuelas de sus novelas ya escritas, dándoles un tratamiento de conjunto en una forma que seguramente no había él mismo previsto.
Según su punto de vista, Asimov pensaba que sus contribuciones más duraderas serían las Tres Leyes de la Robótica y la serie Fundaciones (véase Yours, Isaac Asimov, p. 329). Más aún, el Diccionario de inglés de Oxford le da crédito al introducir las palabras positrónico, psicohistoria y robótica en el idioma inglés. La primera de estas palabras se aplica a una tecnología enteramente ficticia, aunque basada en el nombre de la partícula subatómica de antimateria opuesta al electrón, el positrón, mientras que la segunda se utiliza con frecuencia en un sentido diferente al empleado por Asimov; sin embargo, el uso de robótica continúa aplicándose con el sentido dado por Asimov.

La obra más famosa de Asimov es la serie de la Fundación, también conocida como Trilogía o Ciclo de Trántor, que forma parte de la serie del Imperio Galáctico y que más tarde combinó con su otra gran serie sobre los robots. También escribió obras de misterio y fantasía, así como una gran cantidad de textos de no ficción. En total, escribió más de 500 volúmenes y unas 9.000 cartas o postales. Sus trabajos han sido publicados en 9 de las 10 categorías del Sistema Dewey de clasificación.
Asimov, junto con Robert A. Heinlein y Arthur C. Clarke, fue considerado en vida como uno de los "tres grandes" escritores de la ciencia ficción.
La mayoría de sus libros de divulgación explican los conceptos científicos siguiendo una línea histórica, retrotrayéndose lo más posible a tiempos en que la ciencia en cuestión se encontraba en una etapa elemental. A menudo brinda la nacionalidad, las fechas de nacimiento y muerte de los científicos que menciona, así como las etimologías de las palabras técnicas.
Asimov fue miembro de Mensa durante mucho tiempo, a cuyos miembros describía como "intelectualmente combativos". Disfrutaba más de la presidencia de la American Humanist Association (Asociación Humanista Americana), una organización de ideología atea.
En 1981 se nombró a un asteroide, el 5020 Asimov en su honor. Actualmente el robot humanoide de Honda se conoce como "ASIMO", aunque Honda haya desmentido varias veces que el nombre tenga algo que ver con el del autor.
Qué es la Robótica ?


Una vez comprendido el concepto de robot podemos avanzar hacia la definición de la ciencia que estudia este tipo de dispositivos, la cual se denomina "Robótica" y ha evolucionado rápidamente en estos últimos años.
Podríamos aproximarnos a una definición de Robótica como:
El diseño, fabricación y utilización de máquinas automáticas programables con el fin de realizar tareas repetitivas como el ensamble de automóviles, aparatos, etc. y otras actividades.
Básicamente, la robótica se ocupa de todo lo concerniente a los robots, lo cual incluye el control de motores, mecanismos automáticos neumáticos, sensores, sistemas de cómputos, etc.
De esta definición podemos concluir que en la robótica se aúnan para un mismo fin varias disciplinas confluyentes, pero diferentes, como ser la Mecánica, la Electrónica, la Automática, la Informática, etc.

La robótica es la ciencia de ingeniería y la tecnología de los robots (entendiendo al robot como una máquina capaz de realizar tareas de manera autónoma o semi autónoma), relacionada con la electrónica, la mecánica y el software. Es una ciencia cada vez más popular por desarrollar verdaderas inteligencias capaces de realizar muchas labores humanas o simplemente facilitarlas. La robótica se encarga no sólo de diseñar robots, sino también de fabricarlos, aplicarlos y disponerlos estructuralmente.

El término robot como concepto fue introducido por el escritor checo Karel Capek en su obra R.U.R publicada en 1920. En los años treinta se comenzó a difundir por Europa y luego por el resto del mundo, alcanzando gran popularidad. Hoy, el robot es descrito como una máquina programable, que puede ser móvil o articulada. El primero de ellos, llamado Unimate, fue instalado en 1961para levantar piezas calientes de metal y apilarlas.

Un robot puede funcionar con energía hidráulica, eléctrica o neumática. Los que utiliza la industria son casi todos de la primera generación de robots y su funcionamiento está totalmente limitado a la programación, sin poder realizar ningún tipo de decisión propia. Los movimientos que realizan están codificados en un programa elaborado matemáticamente o a partir de los movimientos de un instructor que se almacenan en la memoria de un ordenador. La siguiente generación de robots, salidos de laboratorios, poseen algún grado de inteligencia artificial, con la que pueden tomar decisiones lógicas. Por ejemplo, pueden encontrar el camino más corto para realizar sus tareas, luego de analizar la situación. Hoy, los robots con inteligencia artificial pueden sostener juegos de ajedrez reñidos con los grandes maestros, incluso retener más información que un médico y así ayudarle a establecer diagnósticos.

El robot, de manera práctica (llevado del concepto a la acción), nació en los años sesenta y desde entonces se ha desarrollado de manera increíble, sin presentar ningún indicio de estancamiento, lo que sugiere el increíble potencial de la robótica. Los primeros fueron desarrollados para aplicaciones industriales, espaciales y submarinas, pero de a poco fueron ganando terrenos hasta realizar tareas humanas en servicios y oficinas e incluso algunos que pueden realizar tareas del hogar. Los robots representan una opción más barata, precisa y confiable que los humanos en numerosos trabajos. Además, son ideales en las labores que representan un riesgo para una persona. Sus usos más frecuentes son en fabricación, ensamblaje, empaquetamiento, transporte, exploraciones espaciales y terrestres, cirugía, armamento, investigación de laboratorio, seguridad y producción masiva de productos industriales y de consumidor.



las tres leyes de la rebotica

En ciencia ficción las tres leyes de la robótica son un conjunto de normas escritas por Isaac Asimov, que la mayoría de los robots de sus novelas y cuentos están diseñados para cumplir. En ese universo, las leyes son "formulaciones matemáticas impresas en los senderos positrónicos del cerebro" de los robots (lo que hoy llamaríamos ROM). Aparecidas por primera vez en el relatoRunaround (1942), establecen lo siguiente:

1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.1 }}

Esta redacción de las leyes es la forma convencional en la que los humanos de las historias las enuncian; su forma real sería la de una serie de instrucciones equivalentes y mucho más complejas en el cerebro del robot.
Asimov atribuye las tres Leyes a John W. Campbell, que las habría redactado durante una conversación sostenida el 23 de diciembre de 1940. Sin embargo, Campbell sostiene que Asimov ya las tenía pensadas, y que simplemente las expresaron entre los dos de una manera más formal.
Las tres leyes aparecen en un gran número de historias de Asimov, ya que aparecen en toda su serie de los robots, así como en varias historias relacionadas, y la serie de novelas protagonizadas porLucky Starr. También han sido utilizadas por otros autores cuando han trabajado en el universo de ficción de Asimov, y son frecuentes las referencias a ellas en otras obras, tanto de ciencia ficción como de otros géneros.



Propósito

Estas leyes surgen como medida de protección para los seres humanos. Según el propio Asimov, la concepción de las leyes de la robótica quería contrarrestar un supuesto "complejo de Frankenstein", es decir, un temor que el ser humano desarrollaría frente a unas máquinas que hipotéticamente pudieran rebelarse y alzarse contra sus creadores. De intentar siquiera desobedecer una de las leyes, el cerebro positrónico del robot resultaría dañado irreversiblemente y el robot moriría. A un primer nivel no presenta ningún problema dotar a los robots con tales leyes, a fin de cuentas, son máquinas creadas por el hombre para su servicio. La complejidad reside en que el robot pueda distinguir cuáles son todas las situaciones que abarcan las tres leyes, o sea poder deducirlas en el momento. Por ejemplo saber en determinada situación si una persona está corriendo peligro o no, y deducir cuál es la fuente del daño.
Las tres leyes de la robótica representan el código moral del robot. Un robot va a actuar siempre bajo los imperativos de sus tres leyes. Para todos los efectos, un robot se comportará como un ser moralmente correcto. Sin embargo, es lícito preguntar: ¿Es posible que un robot viole alguna de sus tres leyes? ¿Es posible que un robot "dañe" a un ser humano? La mayor parte de las historias de robots de Asimov se basan en situaciones en las que a pesar de las tres leyes, podríamos responder a las anteriores preguntas con un "sí".
Asimov crea un universo en el que los robots son parte fundamental a lo largo de diez mil años de historia humana, y siguen teniendo un papel determinante durante diez mil años más. Es lógico pensar que el nivel de desarrollo de los robots variaría con el tiempo, incrementándose su nivel de complejidad cada vez más. Según Asimov, un robot no razona, es lógico.


Historia de las tres leyes de la robótica

Los primeros robots construidos en la Tierra (vistos, por ejemplo, en Yo, Robot) eran modelos poco avanzados. Era una época en donde la robopsicología no estaba aún desarrollada. Estos robots podían ser enfrentados a situaciones en las cuales se vieran en un conflicto con sus leyes. Una de las situaciones más sencillas se da cuando un robot debe dañar a un ser humano para evitar que dos o más sufran daño. Aquí los robots decidían en función de un criterio exclusivamente cuantitativo, quedando luego inutilizados, al verse forzados a violar la primera ley.
Posteriores desarrollos en la robótica, permitieron la construcción de circuitos más complejos, con una mayor capacidad de autorreflexión. Una peculiaridad de los robots es que pueden llegar a redefinir su concepto de "daño" según sus experiencias, y determinar niveles de éste. Su valoración de los seres humanos también puede ser determinada por el ambiente. Es así que un robot puede llegar a dañar a un ser humano por proteger a otro que considere de más valía, en particular su amo. También podría darse el caso de que un robot dañara físicamente a un ser humano para evitar que otro sea dañado psicológicamente, pues llega a ser una tendencia el considerar los daños psicológicos más graves que los físicos. Estas situaciones nunca se hubieran dado en robots más antiguos. Asimov plantea en sus historias de robots las más diversas situaciones, siempre considerando las posibilidades lógicas que podrían llevar a los robots a tales situaciones.


La ley cero

Uno puede llegar a encariñarse con los robots de Asimov, el cual nos muestra en sus historias robots cada vez más "humanos". En "El hombre bicentenario", Asimov nos narra la historia de Andrew Martin, nacido robot, y que lucha durante toda su vida (como "Uno") para ser reconocido como un ser humano. Están también R. Daneel Olivaw y R. Giskard Reventlov, que tienen un papel fundamental en la segunda expansión de los seres humanos y la consiguiente fundación del imperio galáctico. Siendo los robots más complejos jamás creados, fueron capaces de desarrollar la ley cero de la robótica ("Zeroth law", en inglés) como corolario filosófico de la primera:
Un robot no puede hacer daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
R. Giskard murió en Robots e Imperio, tras verse obligado a dañar a un ser humano en virtud de la ley cero. El problema fundamental con esta ley es definir "Humanidad", así como determinar qué supone un "daño" para la Humanidad. R. Daneel logró asimilarla gracias al sacrificio de Giskard, convirtiéndose desde entonces en el protector en la sombra de la Humanidad. Daneel, bajo distintas identidades, se convierte en uno de los personajes más importantes del ciclo de Trántor (formado por los cuentos y novelas de robots, las novelas del imperio, y la saga de las fundaciones: 17 libros) siendo además un elemento clave en su continuidad.

miércoles, 18 de mayo de 2011


Elementos de maquinas
Una máquina esta compuesta por una serie de elementos más simples que la constituyen, pudiendo definir como elementos de máquinas todas aquellas piezas o elementos más sencillos que correctamente ensamblados constituyen una máquina completa y en funcionamiento.


Diferentes elementos de una máquina (cronógrafo de aviación de Rusia).
Estos elementos de máquinas, no tienen que ser necesariamente sencillos, pero si ser reconocibles como elemento individual fuera de la máquina que forma parte o de las máquinas de las que puede formar parte.

Maquina compuesta
Cuando no es posible resolver un problema técnico en una sola etapa hay que recurrir al empleo de una máquina compuesta, que no es otra cosa que una sabia combinación de diversas máquinas simples, de forma que la salida de cada una de ellas se aplica directamente a la entrada de la siguiente hasta conseguir cubrir todas las fases necesarias.
Las máquinas simples, por su parte, se agrupan dando lugar a los mecanismos, cada uno encargado de hacer un trabajo determinado. Si analizamos un taladro de sobremesa podremos ver que es una máquina compuesta formada por varios mecanismos: uno se encarga de crear un movimiento giratorio, otro de llevar ese movimiento del eje del motor al del taladro, otro de mover el eje del taladro en dirección longitudinal, otro de sujetar la broca, otro...

Maquinas simples

Una máquina simple es un artefacto mecánico que transforma una fuerza aplicada en otro resultante, modificando la magnitud de la fuerza, su dirección, la longitud de desplazamiento o una combinación de ellas.
En una máquina simple se cumple la ley de la conservación de la energía: «la energía ni se crea ni se destruye; solamente se transforma». La fuerza aplicada, multiplicada por la distancia aplicada (trabajo aplicado), será igual a la fuerza resultante multiplicada por la distancia resultante (trabajo resultante). Una máquina simple, ni crea ni destruye trabajo mecánico, sólo transforma algunas de sus características.
Máquinas simples son la palanca, las poleas, el plano inclinado, etc.
No se debe confundir una máquina simple con elementos de máquinas, mecanismos o sistema de control o regulación de otra fuente de energía.

miércoles, 11 de mayo de 2011

ANTROPOMETRIA EN COLOMBIANOS

estudio describe las medidas antropométricas (peso, talla y
complejo craneofacial) de un grupo de individuos Colombianos
con Labio y paladar fisurado completo, con edades entre 1 y 18
años. Se utilizaron los criterios del National Center of Health Statistics
(NCHS) para talla y peso y las medidas antropométricas descritas
por Farkas. Se analizaron un total de 144 pacientes: 4 hombres
y 4 mujeres por cada rango de edad entre 1 a 18 años. Las variables
se analizaron a través de porcentajes, promedios y desviación estándar.
La población estudiada mostró valores para peso y talla entre
los percentiles 25-50 considerados por pediatría como normales
para la población Colombiana. Las medidas antropométricas presentaron
diferentes valores a lo reportado por Farkas lo cual puede
explicarse por diferencias poblacionales o por el compromiso de
las estructuras relacionadas con la hendidura como la altura facial
superior, la altura labial, el ancho de la nariz y el ancho de la cara.

miércoles, 4 de mayo de 2011


Escoliosis - Un serio problema

Departíamos en una mesa un grupo de personas cuando una de ellas; una señora joven, me manifestó los fuertes dolores en la espalda que sentía a consecuencia de una escoliosis, provocada por el constante e inadecuado esfuerzo que hacia para cargar a su menor hijo. Ella estaba en pleno tratamiento y queria saber mi opinión.

La escoliosis es una desviación latera de la columna que puede ser en forma de “C” o de “S” alargada con una curva primaria de preferencia en la parte inferior y la otra curva compensada de menor tamaño en la parte superior.

Las escoliosis pueden ser de tipo postural y las de tipo estructural.Las primeras son ocasionadas por una mala postura ejercida repetidamente, como los cargadores, los que trabajan sentados, etc.Las estructurales presentan a parte de la desviación lateral de la columna, rotación de la vertebra y no son flexibles.

Las escoliosis pueden tener un componente congénito y empiezan a manifestarse a temprana edad.Existen un grupo de escoliosis que en medicina se denominan idiopáticas, pero abarcan a todas las escoliosis que no tienen una causa conocida.

El acortamiento de una pierna puede llegar a producir una escoliosis.

La detección oportuna de una escoliosis en los niños puede ayudar a corregir en el futuro el problema. Los padres pueden ayudar mucho si observan en sus hijos que al estar de pie, su nivel de hombros no está alineado, o si un brazo se pega al cuerpo mientras el otro se separa, o si al sentarse lo hace con el tronco completamente torcido. El hecho de gastar más la suela de un zapato nos puede indicar una mala pisada que puede ocasionar en el futuro lesiones en la espalda.

El médico especialista con una radiografía comprobará la presencia o no de la escoliosis.

Una escoliosis postural puede en el futuro convertirse en una estructural si no se trata a tiempo. El uso de corsés puede ser importante si está acompañado de un programa de ejercicios de lo contrario es inútil.

Debemos resaltar la importancia del control de postura ( ver artículo sobre postura en este blog escrito en el mes de setiembre http://elcastillodelwyrm.blogia.com/temas/terapia-fisica.php), para evitar que la curva o curvas escolióticas aumenten de tamaño.

El ejercicio adecuado e indicado por el especialista es también parte importante del tratamiento, especialmente como preparación para hacer algún tipo de deporte como la natación que se recomienda mucho en pacientes que tienen escoliosis. Es importante estirar la musculatura que está contraída en la parte convexa de la curva y hacer trabajar la musculatura que está inactiva en la parte cóncava de la curva.

El yoga, el taichí son alternativas de ejercicio siempre que no coloquen a la espalda en una posición inadecuada.

En mis recuerdos está el tratar a una joven, que se había casado recientemente y que el médico le informó que debido a la escoliosis que sufría tendría problemas al quedar embarazada.Trabaje con ella por un año acondicionando su espalda para el trabajo que soportaría cuando quedara embarazada. Hoy es madre de dos hermosas hijas. No ha olvidado su ejercicio.

Cuando hablamos de rehabilitación en una escoliosis debemos entender, a la acción de evitar que haya molestias en la columna como dolor o imposibilidad de hacer el quehacer diario. No estamos hablando de enderezar la columna.

Algunas escoliosis muy incipientes o con poca curvatura pueden corregirse, pero la gran mayoría no. El evitar que la curvatura siga acentuándose en de vital importancia en todo proceso de rehabilitación y la desaparición de la molestia o la atenuación del dolor es el objetivo a conseguir.

SINDROME DEL TUNEL TUNEL CARPIANO

El adormecimiento en la palma de la mano y los dedos pulgar, índice, medio y a veces también el anular son síntomas que debe considerar.

Hoy en día es común escuchar a personas de distintas ocupaciones decir que sufren del Síndrome del Túnel Carpiano, pero ¿qué es en verdad esta enfermedad?. En términos sencillos, responde a un engrosamiento fibroso del ligamento existente en la cara palmar de las muñecas, en la zona llamada Túnel del Carpo, el cual comprime las estructuras anatómicas que están entre él y los huesos; como tendones, nervios y vasos sanguíneos, ocasionando dolor y adormecimiento. Sin embargo, la principal molestia es debida a la compresión sobre el denominado nervio mediano, que ocasiona una inflamación crónica y daño del nervio. Las causas pueden ser varias, sin embargo, con frecuencia la presión ejercida por la flexión mantenida o constantemente repetida de la muñeca, como ocurre con la práctica de ciertas actividades como teclear, tejer, tocar violín, etc. determinaría un déficit de circulación
en la zona del ligamento, el que iría endureciéndose y aumentando su grosor. Cuando la compresión sobre el nervio se mantiene, las molestias, al comienzo leves y ocasionales, irán progresando cada vez más hasta hacerse intensas y permanentes. El tratamiento planteado comúnmente es la cirugía, donde se "corta" parte o la totalidad del ligamento que está engrosado y comprimiendo al nervio.

Ante esta situación, existe también la técnica de fisioterapia MOVHA, la cual permite contribuir a la resolución del problema de una manera no invasiva, mejorando la circulación del ligamento, deshaciendo la fibrosis, disminuyendo su inflamación y optimizando las vías de eliminación de todos los residuos retenidos en el área de la lesión. El tratamiento consiste en sesiones de movilización del tejido conectivo, un verdadero masaje a los tejidos bajo la piel, utilizando el efecto del vacío, mecanismo muy semejante al de las milenarias y populares "ventosas", pero a través de un equipo de alta tecnología dotado de un sofisticado control electrónico, que permite graduar intensidad, frecuencia, pulso y profundidad en la aplicación del vacío, de acuerdo a la lesión que se desea tratar y a la situación de cada paciente, para ir paulatina y gradualmente restituyendo la normalidad anatómica en la zona tratada con la consiguiente mejoría de la enfermedad y sus síntomas. El programa de tratamiento está estructurado en sesiones de treinta minutos, tres veces a la semana al comienzo. En términos generales se requieren entre 12 y 18 sesiones cuando el problema afecta a una mano, y no hay otras enfermedades o lesiones asociadas ( artritis, tendinitis y otras) la cantidad de sesiones dependerá de factores como edad, severidad, antigüedad de la lesión y enfermedades asociadas.

Los resultados favorables se observan ya desde las primeras 6 sesiones de terapia, y prácticamente la totalidad de los pacientes que completan su tratamiento logran alivio en forma estable y duradera, el porcentaje de recidivas (volver a enfermarse) es inferior al 10% al cabo de dos años. Sin duda, es una excelente opción ante una cirugía, no sólo por su menor costo, sino que también por no tener riesgos ni efectos colaterales. Además de poder realizarse todas las veces que sea necesario, no así la cirugía.

ANTRPOMETRIA

La antropometría. Se considera a la antropometría como la ciencia que estudia las medidas del cuerpo humano, con el fin de establecer diferencias entre individuos, grupos, razas, etc. Esta ciencia encuentra su origen en el siglo XVIII en el desarrollo de estudios de antropometría racial comparativa por parte de antropólogos físicos; aunque no fue hasta 1870 con la publicación de "Antropometrie”,
del matemático belga Quetlet, cuando se considera su descubrimiento y estructuración científica. Pero fue a partir de 1940, con la necesidad de datos antropométricos en la industria, específicamente la bélica y la aeronáutica, cuando la antropometría se consolida y desarrolla, debido al contexto bélico mundial. Las dimensiones del cuerpo humano varían de acuerdo al sexo, edad, raza, nivel socioeconómico, etc.; por lo que esta ciencia dedicada a investigar, recopilar y analizar estos datos, resulta una directriz en el diseño de los objetos y espacios arquitectónicos, al ser estos contenedores o prolongaciones del cuerpo y que por lo tanto, deben estar determinados por sus dimensiones.

Estas dimensiones son de dos tipos esenciales: estructurales y funcionales. Las estructurales son las de la cabeza, troncos y extremidades en posiciones estándar. Mientras que las funcionales o dinámicas incluyen medidas tomadas durante el movimiento realizado por el cuerpo en actividades especificas. Al conocer estos datos se conocen los espacios mínimos que el hombre necesita para desenvolverse diariamente, los cuales deben de ser considerados en el diseño de su entorno. Aunque los estudios antropométricos resultan un importante apoyo para saber la relación de las dimensiones del hombre y el espacio que este necesita para realizar sus actividades, en la práctica se deberán tomar en cuenta las características especificas de cada situación, debido a la diversidad antes mencionada; logrando así la optimización en el proyecto a desarrollar. A continuación se presentan algunas representaciones graficas de dimensiones humanas estructurales y funcionales.

Ergonomia Y peronas


Ergonomía es una ciencia que produce e integra el conocimiento de las ciencias humanas para adaptar los trabajos, sistemas, productos y ambientes a las habilidades mentales y físicas así como a las limitaciones de las personas. Busca al mismo tiempo salvaguardar la seguridad, la salud y el bienestar mientras optimiza la eficiencia y el comportamiento. Dejar de considerar los principios de la Ergonomía llevará a diversos efectos negativos que - en general - se expresan en lesiones, enfermedad profesional, o deterioros de productividad y eficiencia.

La ergonomía analiza aquellos aspectos que abarcan al entorno artificial construido por el hombre, relacionado directamente con los actos y acciones involucrados en toda actividad de éste, ayudandolo a acomodarse de una manera positiva al ambiente y composición del cuerpo humano.

En todas las aplicaciones su objetivo es común:se trata de adaptar los productos, las tareas, las herramientas;los espacios y el entorno en general a la capacidad y necesidades de las personas, de manera que mejore la eficiencia, seguridad y bienestar de los consumidores, usuarios o trabajadores (Tortosa et al, 1999).

Es la definición de comodidad, eficiencia, productividad, y adecuación de un objeto, desde la perspectiva del que lo usa.

La ergonomía es una ciencia en sí misma, que conforma su cuerpo de conocimientos a partir de su experiencia y de una amplia base de información proveniente de ciencias como la psicología, la fisiología, la antropometría, la biomecánica, la ingeniería industrial, el diseño y muchas otras.

El planteamiento ergonómico consiste en diseñar los productos y los trabajos de manera de adaptar éstos a las personas y no al contrario.

La lógica que utiliza la ergonomía se basa en el axioma de que las personas son más importantes que los objetos o que los procesos productivos; por tanto, en aquellos casos en los que se plantee cualquier tipo de conflicto de intereses entre personas y cosas, deben prevalecer los de las personas.

Los principios ergonómicos se fundamentan en que el diseño de productos o de trabajos debe enfocarse a partir del conocimiento de cuáles son las capacidades y habilidades, así como las limitaciones de las personas (consideradas como usuarios o trabajadores, respectivamente), diseñando los elementos que éstos utilizan teniendo en cuenta estas características.

miércoles, 30 de marzo de 2011


Biodigestor casero



Bueno, para empezar una breve explicación de que es un biodigestor, y de donde he sacado los datos etc.
Bien, hace unos años he tomado un curso con un docente de la Universidad Nacional del Litoral, el Ingeniero Eduardo Groppelli, que editó un libro “El camino de la biodigestión” editorial centro de publicaciones de la Universidad Nacional del Litoral, de este libro y partes del curso he tomado la mayor parte de los datos.
El biodigestor es un recinto cerrado donde se producen reacciones anaeróbicas (sin aire) en el que se degrada la materia orgánica disuelta en un medio acuoso, para dar como resultado metano y dióxido de carbono, trazas de hidrogeno y sulfídrico, estos microorganismos, protozoarios hongos y bacterias que están en el interior deben ser cultivadas, por tanto no vamos a obtener el biogas inmediatamente, tendremos que esperar que lo empiecen a producir, esto tarda unos 15 días mas o menos, esta producción se vera afectada por la temperatura exterior, por tanto si queremos que nuestro biodigestor produzca algo mas o menos constante debemos enterrarlo para que la temperatura se mantenga en unos 18 grados, no es lo mejor pero durante los fríos de invierno tendremos buena producción.
En la imagen que puse mas arriba el biodigestor está pintado de negro para aumentar la temperatura interior ya que no esta enterrado.
metodolgia de proyectos


El alcance del plan del programa varía según el estadio del programa, es decir, si está en la fase de iniciación, planificación, ejecución o cierre. El modelo de planificación, denominado ‘Olas en Movimiento’, asume que la persona que hace la planificación no puede determinar exactamente los cronogramas detallados, más allá de un horizonte relativamente cercano. Este modelo intenta eliminar los errores de predicción concentrándose en aquello que puede ser conocido de antemano con un alto índice de exactitud y hacer predicciones razonables acerca del trabajo que esté más allá de esos horizontes.

El plan inicial del programa define cómo debe iniciarse el ejercicio del programa. El proveedor de la solución empleará ese plan para obtener el compromiso del personal requerido. Se incluirán los hitos principales del trabajo restante en este plan inicial. De modo típico, estos serán incompletos pues no se cuenta con toda la información que estará disponible más adelante en el programa. Como mínimo, se propone un estimativo general acerca de los requerimientos de personal, presupuesto y duración para el resto del programa.
DISENO Y ELABORACION DE PROYECTO PROYECTO ES : Una ordenacion de actividades y recursos que depende del medio donde surge y se desarolla ; es decir , del contexto economico,politico y social que lo enmarca y requiere uana metodologia. Deseamos hacer una revicion sobre el tema de planificacion, accion permanenete y cotidiana no por ello asumida en plenitud. a la vez conocer los terminos utilizados en esta area para permitir un mayor y mejor entendimiento. normalmente cuando empesamos a realizar el proyecto nos encontramos con dificultades no siempre podemos elaborar el proyecto como creemos hay problemas al realizar el proyecto. Un proyecto se disena en la base de un diagnostico en el cual se detectan problemas. lo importante esque los problemas se resuelban en el proyecto.

lunes, 28 de marzo de 2011



DIAGRAMA DE GANTT



El diagrama de Gantt, gráfica de Gantt o carta Gantt es una popular herramienta gráfica cuyo objetivo es mostrar el tiempo de dedicación previsto para diferentes tareas o actividades a lo largo de un tiempo total determinado. A pesar de que, en principio, el diagrama de Gantt no indica las relaciones existentes entre actividades, la posición de cada tarea a lo largo del tiempo hace que se puedan identificar dichas relaciones e interdependencias. Fue Henry Laurence Gantt quien, entre 1910 y 1915, desarrolló y popularizó este tipo de diagrama en Occidente.


Por esta razón, para la planificación del desarrollo de proyectos complejos (superiores a 25 actividades) se requiere además el uso de técnicas basadas en redes de precedencia como CPM o los grafos PERT. Estas redes relacionan las actividades de manera que se puede visualizar el camino crítico del proyecto y permiten reflejar una escala de tiempos para facilitar la asignación de recursos y la determinación del presupuesto. El diagrama de Gantt, sin embargo, resulta útil para la relación entre tiempo y carga de trabajo.


En gestión de proyectos, el diagrama de Gantt muestra el origen y el final de las diferentes unidades mínimas de trabajo y los grupos de tareas (llamados summary elements en la imagen) o las dependencias entre unidades mínimas de trabajo (no mostradas en la imagen).


Desde su introducción los diagramas de Gantt se han convertido en una herramienta básica en la gestión de proyectos de todo tipo, con la finalidad de representar las diferentes fases, tareas y actividades programadas como parte de un proyecto o para mostrar una línea de tiempo en las diferentes actividades haciendo el método más eficiente.


Básicamente el diagrama esta compuesto por un eje vertical donde se establecen las actividades que constituyen el trabajo que se va a ejecutar, y un eje horizontal que muestra en un calendario la duración de cada una de ellas.