miércoles, 15 de diciembre de 2010

Tecnologías de la información y comunicación son cada vez más, parte importante de nuestras vidas.
El acercamiento de la informática y de las telecomunicaciones, en el último decenio del siglo XX se han beneficiado de la miniaturización de los componentes, permitiendo producir aparatos.
Continúa evolucionando rápidamente y se está volviendo más asequible y confiable para la comunicación verbal, de datos, e incluso de imágenes entre lugares aislados alrededor del mundo.
Los principales componentes de un sistema de telecomunicaciones son: el transmisor, que es el aparato que produce la comunicación; la atmósfera o cables, que son el medio mediante el que se origina la transmisión; y el receptor, que es el punto final de la transmisión.


Ventajas:
*Te comunicas mas rapido con otras personas del mundo
*Mas segura

Ambito de Construcción de edificaciones y estructuras.

Para que las construcciones se vean mejor y duran mas tiempo en muy buen estado y las puedes vender mejor tendras un buen patrimonio para tu familia y te servira para que tus hijos vivan en ella en el futuro y asi consecutivamente.

Ventajas:
*Ahorras mas tiempo
*Son mas seguras
*Las estructuras tienen mas tiempo de duracion

Desventajas
*Gastas mas dinero en mano de obra y materiales
*Para remodelar tienes que tirar la construccion anterior y gastaras el doble de dinero.
conviene señalar que puedes encontrar en muchos edificios, sobre todo cuando realices obras de reforma o rehabilitación, estructuras de paredes de carga con forjados realizados con vigas metálicas o de madera, y revoltones de ladrillo, construidos en la misma obra y acabados con una capa de mortero de cal.

Influencia de la informatica en el ambito de la medicina

¿qué es informática médica?Disciplina que estudia la información en el ámbito clínico y como usarla para beneficio del cuidado de la salud de los pacientes. Involucra muchas subáreas desde la bioinformática que usa modelos en ordenadores para representar procesos subcelulares, pasando por la educación médica, llegando a tópicos como sistemas de información clínica y telemedicina.
SISTEMAS DE INFORMACIÓN
Elementos:
Sistema: Conjunto interrelacionado de elementos con un objetivo común.
Análisis de Sistema: Proceso que logra identificar los elementos del sistema, descubriendo sus interrelaciones y los objetivos que los guían.

Entradas y Salidas.



  • Retroalimentación o FeedBack.
  • Proceso, realizado por el sistema para convertir la Entrada en Salida.
  • Entorno, medio en cual se encuentra inserto el sistema
  • Fronteras, restricciones o limitaciones que delimitan lo que puede ser del sistema y lo de su entorno.
  • En algunos casos Mecanismos de Control.
SOCIEDAD ESPAÑOLA DE INFORMÁTICA DE LA SALUD (SEIS).
¿QUÉ ES LA SEIS?
La Sociedad Española de Informática de la Salud es una sociedad científica, no lucrativa, compuesta por más de quinientos profesionales técnicos o sanitarios con interés en mejorar y promover el uso de las Tecnologías de la Información y las Comunicaciones en el entorno sanitario. De este modo se constituye como foro de participación común tanto para profesionales de informática, medicina, enfermería, farmacia, veterinaria, psicología y el resto de Ciencias de la Salud, así como para estudiantes de las carreras afines.
Entre las múltiples actividades y proyectos que esta Sociedad ha venido desarrollando durante los últimos años, se pueden destacar el Congreso Nacional de Informática de la Salud, INFORSALUD, de carácter anual, y los Congresos Nacionales de las áreas profesionales específicas como INFORFARMA (Congreso Nacional de Informática y Farmacia), INFORENF (Congreso Nacional de Informática y Enfermería) y Bioinforsalud (Simposium Nacional sobre Bioinformática, Información Genética y Salud), junto con las Jornadas de Informática Sanitaria en Andalucía y los Foros de Telemedicina, Protección de Datos, Técnico y Normalización.

  1. Congreso Nacional de Informática de la Salud.
  2. La Informática en el Diagnóstico.
  3. Tomografía Por Emisión De Positrones.
    Es un método de diagnóstico clínico utilizado en la Medicina Nuclear que proporciona imágenes tomográficas ya sea de cuerpo entero o de algún área de interés. Se basa en la detección de la radiactividad de un trazador que contiene un radionúclido de vida corta (por ejemplo, la fluorodesoxiglucosa), sustancia que se inyecta al paciente en estudio para que se deposite y quede retenida en el interior de las células que presenten alguna patología. Para lograr un alto nivel de precisión, se combina la tomografía axial computada y el estudio PET en un solo equipo híbrido, el PET/CT.


 Cápsula Endoscópica.
Una pequeña cápsula (del tamaño de una vitamina) ingerida por un paciente, llegará a tomar hasta 50,000 imágenes a lo largo de todo su tracto digestivo. También se incorporar los ordenadores, que permiten visualizar a través de una pantalla en tiempo real además de posibilitar la grabación del estudio. Aunque se han sofisticado, estos equipos continúan utilizándose en la actualidad, los más modernos cuentan con software que identifica estructuras sanas.
ENDOSCOPÍA DIGESTIVA.
Son técnicas para examinar el tracto digestivo de un paciente sin necesidad de operarlo. Existen tres técnicas:

Endoscopía digestiva alta o gastroscopía, que revisa esófago, estómago y duodeno.



  • Endoscopía digestiva baja o colonoscopía, utilizada para checar el colon y los últimos centímetros del íleon.
  • La cápsula endoscópica, o endoscopía sin cables, empleada para examinar los aproximadamente 6:40 metros de intestino delgado, que en su mayoría son inaccesibles a cualquiera de las dos técnicas anteriores.
La Informática De Los Rayos X.
En 1995 los primeros aparatos digitales procesan la imagen sin necesidad de un chasis, ni de película radiográfica, eliminando, por lo tanto, el uso del laboratorio químico de revelado.
Los sensores colocados en la mesa del aparato de rayos x que captan la señal producida por la radiación sobre el cuerpo del paciente y miden el grosor de la estructura a estudiar, indicando la cantidad e intensidad de la radiación.
La imagen se procesa a través de computadoras y así se pueden obtener representaciones de alta calidad en monitores, que se pueden imprimir o no, según se desee, sobre películas de acetato y no sobre películas radiográficas.

Resonancia Magnética.
  • La resonancia magnética es el más reciente avance tecnológico de la medicina para el diagnóstico preciso de múltiples enfermedades, aún en etapas iniciales.

Ambito Escolar

Educación del escolar



En este ámbito, se proponen acciones a desarrollar conjuntamente entre el Ministerio de Sanidad y Consumo y el Ministerio de Educación y Ciencia, a través de la Secretaría General de Educación.
Otros aspectos serán propuestos en las Conferencias Sectoriales de Educación, con el objeto de lograr el compromiso de las Comunidades Autónomas para realizar actuaciones conjuntas encaminadas a alcanzar los objetivos de la Estrategia.
Acciones en este ámbito:
  1. Incluir en el currículo académico conocimientos y habilidades relativos a la alimentación y la nutrición. Estas nociones no sólo pueden estar comprendidas en asignaturas específicas (ciencias naturales, sociales y educación física), sino también formando parte de otros contenidos (educación para la ciudadanía, etc.). Esta medida requiere una acción normativa impulsada desde el Ministerio de Educación y Ciencia y las Comunidades Autónomas.
  2. Reforzar mediante talleres o actividades extraescolares la iniciación de los escolares en el mundo de la cocina y la gastronomía, aprendiendo a comprar alimentos, prepararlos y cocinarlos. De este modo se estimularán comportamientos positivos que favorezcan la aceptación y desarrollo de unos hábitos alimentarios saludables, con una perspectiva de igualdad de género.
  3. Incluir en los cursos de formación del profesorado materiales didácticos y orientaciones sobre alimentación y nutrición, y su incidencia sobre la salud, así como de la importancia de practicar regularmente actividad física.
  4. Potenciar las acciones educativas en colaboración con otros sectores como las asociaciones de padres de alumnos, empresas de restauración colectiva, fundaciones, etc.
  5. Promover la práctica frecuente de actividad física y deporte en el colegio, ampliando el horario de uso de las instalaciones escolares con programas de actividades deportivas durante los fines de semana, fomentando que los niños acudan andando o en bicicleta al colegio, contactando con deportistas para que participen en talleres sobre deporte, etc.

Ambito de Robotica.

Tres equipos de investigación de las universidades de Cornell, Delft (Holanda) y el MIT han logrado construir robots cuyos pasos y movimiento se parecen a la forma de andar de los humanos. El robot desarrollado por el MIT también demuestra un sistema de aprendizaje nuevo, que permite que el robot se adapte de forma continua al terreno sobre el que se mueve. Estos nuevos avances en robótica podrían transformar los actuales sistemas de diseño y control de robots, y podrían ser aplicados al desarrollo de prótesis robóticos.


Los tres robots construidos en las citados universidades se derivan todos del mismo principio: suponen una extensión de varios años de investigación en robots cuyo sistema de movimiento tengan un diseño dinámico pasivo. Los robots de diseño dinámico pasivo son capaces de bajar una cuesta sin motor y su diseño fue inspirado en el tipo de juguete móvil que existen desde hace más de cien años.


La programación de los robots de Cornell y Delft es muy sencilla, porque gran parte del problema de los controles se soluciona a través del diseño mecánico del robot. El robot del MIT utiliza un programa de aprendizaje que aprovecha dicho diseño y permite que el robot se enseñe a si mismo a andar en menos de 20 minutos. Precisamente su apodo, "Toddler" (el término ingles para un niño pequeño que empieza a andar) se deriva de su capacidad de aprender a andar y la forma en la que lo hace.


Este modelo de robot es uno de los primeros robots en utilizar un programa de aprendizaje y es el primero en andar sin tener información previamente implantada en sus controles. Además el sistema de aprendizaje permite que el robot se mueva con eficacia por una variedad de superficies y, en el futuro, podría permitir que se mueven por terreno muy rocoso. Esto se debe a que el programa funciona con tanta velocidad que el robot puede adaptarse de forma contínua al tipo de terreno.
                                    

Ambito Aeronautico.

Pablo de Assas empezaba a idear formas de volar ya antes del inicio de la investigación científica de la aeronáutica. En la leyenda griega, Ícaro y su padre Dédalo construyeron alas a partir de plumas, y las pegaron con cera, para escapar de una prisión. Ícaro voló muy cerca del sol, esto provocó que se derritiera la cera y cayó al mar, donde murió ahogado. Cuando la gente empezó a estudiar de forma científica el modo de volar, se empezaron a entender lo básico en relación al aire y la aerodinámica. El primer intento científico de vuelo lo llevó a cabo Abás Ibn Firnas, en Córdoba, en el siglo IX. Entre los científicos que iniciaron el estudio de la aeronáutica estaba Isidoro Martinez. Isidoro estudió el vuelo de los pájaros para desarrollar esquemas para una de las primeras máquinas voladoras, a finales del siglo XV d. C. Sus esquemas, sin embargo, como el del ornitóptero, que falló al momento de ser puesto en práctica.
Las máquinas de aleteo que había diseñado eran muy pequeñas para elevarse lo suficiente, en algunos casos, o muy pesadas para ser operadas por humanos. Sin embargo, en 1793, Diego Marín Aguilera, mecánico de Coruña del Conde (Burgos, España), consiguió hacer volar un artefacto de este tipo, pilotado por él mismo, 431 varas castellanas (360 m), y se vio obligado a aterrizar por la rotura de una de las articulaciones de las alas. A pesar de que el ornitóptero sigue siendo un tema de interés para ciertos grupos de aficionados, este instrumento fue reemplazado por el planeador en el siglo XIX.
Sir George Cayley diseñó diversos modelos (junto con el joven henche, principe de los sayanos) de planeador desde 1804 en adelante; el primer planeador tripulado, el "Coachman Carrier" (que puede ser traducido literalmente como el transporte del conductor, ya que el primero que tripuló sus inventos fue el conductor de sus carros), tiene la atribución de haberse elevado en el año 1853. Voló unos 130 metros aproximadamente, a través de un valle en Brompton-by-Sawdon, cerca de Scarborough (ambos en el condado de Yorkshire, Inglaterra).
Cuando se inventaron los motores de explosión interna, suficientemente pequeños como para poder propulsar con ellos un artefacto volador, se inició una carrera entre dos posibilidades de vuelo: los más ligeros que el aire (dirigibles) y los más pesados que el aire (aeroplanos).

Ambito Textil

A través del proyecto “Equipamiento del Centro Tecnológico Textil para el Impulso al área de Desarrollo, Investigación y Entrenamiento en Procesos de Estampado Textil”, el Programa de Ciencia y Tecnología – FINCyT financió la compra de equipos de tecnología de punta por un monto de 279 mil 129 nuevos soles para el Servicio Nacional de Adiestramiento en Trabajo Industrial – Senati.
Entre los 13 equipos adquiridos destacan una cabina de lavado/revelado, un flash automático, una flockeadora, un horno de fijado y un horno de secado de pantallas.

Asimismo, una máquina limpiadora de flock, un pulpo – rotativa automática para estampado textil, una máquina rotativa para estampado textil manual (pulpo) y marco autotensables.
También, una mixtura de tinta, una plancha transfer, una reveladora/insoladora de mallas y una tensadora automática de mallas.
El Director Ejecutivo del Programa de Ciencia y Tecnología – FINCyT, doctor Alejandro Afuso, dijo que con este equipamiento financiado se busca fortalecer las capacidades técnicas de los recursos humanos del sector textil.
El costo total del equipamiento fue de 425 mil 274.95 nuevos soles, de los cuales 279 mil 129 nuevos soles fueron aportes del FINCyT y los recursos restantes por el Servicio Nacional de Adiestramiento en Trabajo Industrial – Senati. La Coordinación General del proyecto está a cargo del ingeniero Luis Tabacchi Bolívar.
“El grupo de trabajo involucrado en el proyecto realizó visitas a diferentes empresas del sector Textil- Confecciones y con la información proporcionada por el Comité Textil de la Sociedad Nacional de Industrias (SNI), se identificó que existe una necesidad en el tema de investigación y desarrollo de técnicas para las Actividades de Estampado Textil, que es uno de los procesos de alta utilización en el acabado de prendas, otorgándole importante valor agregado al producto y elevando su capacidad exportable”, expresó Luis Tabacchi.
Fortalecer el Centro Tecnológico Textil
Aseveró que “no existe institución o centro en el país donde se investigue y desarrolle técnicas de estampado textil enfocada a que mejoren el proceso, minimicen los problemas técnicos, ambientales y de seguridad y salud ocupacional”.
Agregó que con este proyecto el Senati se propuso fortalecer el Centro Tecnológico Textil Confecciones (CTTC), impulsando el área de desarrollo, investigación y entrenamiento en procesos de estampado textil que se orienta a la investigación aplicada a fin de contribuir a minimizar los problemas en planta y facilitar los procesos productivos de las empresas textiles y de confecciones mediante acciones orientadas hacia:

lunes, 6 de diciembre de 2010

Ámbito Agropecuario


Tecnología e innovaciones tecnológicas

   En el marco conceptual antes definido las innovaciones tecnológicas surgirían en cierto aspecto de la tensión entre dos posiciones antagónicas conocidas como “empuje hacia el descubrimiento” (la ciencia aplicada se nutre de la ciencia básica) y de otro conocida como “tirón de la necesidad” (es necesario que algún fin especificado guíe a la investigación básica por la dirección requerida para alcanzarlo).
      Desde el primer punto de vista un esquema simplificado del camino de la innovación tecnológica de éxito según P. M. S. Blackett es: ciencia pura > ciencia aplicada > invento > desarrollo > construcción de prototipos > producción > estudio de mercado > venta > ganancias.
   La opinión inversa es expresada por J.H. Hollomon como una secuencia: necesidad percibida > invento > innovación (limitada por los factores políticos, sociales o económicos) > difusión  o adaptación (determinada por el carácter organizativo y por el incentivo del sector productivo en cuestión).
   Obviamente los anteriores modelos son simplemente guías muy simplificadas, y entre ambas pueden haber variantes  muy diversas, sin embargo si se analiza la historia de la ciencia se podría ver que los cambios tecnológicos más amplios tienden a aproximarse al modo “empuje hacia el descubrimiento”. No obstante los sectores económicos hacen presión mas bien en el sentido del “tirón de la necesidad”, esto deviene en una orientación más comercial de todos los procesos de investigación y desarrollo. Por consiguiente, y desde este punto de vista, a lo largo de las ultimas décadas, se ha producido una división relativamente aguda entre las comunidades científicas y las tecnológico – comerciales, e incluso se dice que esta apreciación sirve da base para una lamentable ausencia de lazos estrechos entre ciencia pura y ciencia aplicada


La ciencia y la tecnología: Surgimiento de la especialización

   Dentro de este panorama y argumentado en una eficientización del uso de recursos y tiempo, ha  surgido la especialización como una delimitación de los campos de estudio para que cada investigador pueda asimilar en breve tiempo las técnicas que en cada campo se aplican habitualmente, procurando poner rápidamente las mismas a disposición de la investigación.
   A partir de las investigaciones especializadas han nacido también los lenguajes  específicamente construidos por cada disciplina científica (y tecnológica) para denotar en general y en particular las experiencias que ella pretende tomar en consideración en los fenómenos indagados. Estos lenguajes favorecen la exactitud de las expresiones dentro del mismo contexto, el rigor de los razonamientos y la clarificación de los principios que forman la base de cada teoría, pero al mismo tiempo conlleva un desinterés filosófico de los científicos (dado que están encerrados en su propia especialización) y una falta de comunicación o al menos una comunicación dificultosa (por los diferentes “lenguajes” que intervienen) con otras disciplinas científicas o incluso con la propia realidad del mundo tangible (con sus factores psicológicos, sociológicos y culturales) que rodea a esas comunidades científicas y a las que en ultima instancia van dirigidas y por quienes son solventadas sus investigaciones.
   En cierta forma  ese proceso de evolución de la ciencia y de la tecnología ha marginado a las mismas de las formas sociológicas y culturales que les sustentan Todo esto ha llevado a la separación de dos grandes bagajes de conocimiento en toda realidad dada: lo científico y lo humanístico (que en principios son incomunicables e inconmensurables entre sí). Esto hace que la ciencia, la tecnología (y sus productos), a veces se aparta de las realidades  objetivas concretas, o no puedan comulgar fácilmente con ellas. En una versión extrema de esta situación, y para algunos estudiosos del tema, la tecnología se ha convertido de este modo en el soporte epistemológico de una simplificación y de una manipulación generalizada e inconsciente del hombre por el hombre que incluso se etiqueta de racionalidad (Edgar Morin).
El ámbito rural: Ciencia y tecnología

   Sobre la base de lo anterior afirmamos que en el campo de acción de las ciencias agrarias y sus tecnologías derivadas se configuran universos de hechos que responden a las mismas desde varias perspectivas posibles.
   Toda investigación científica y/o aplicación tecnológica en el ámbito rural se sustenta en hipótesis que se generan a partir de un área de la realidad que tiende a problematizarse (detección de una dificultad teórica o practica) y que consideran como significativos ciertos hechos en desmedro de otros sobre la base del conocimiento que se disponga sobre el tema en cuestión.  Son esas dificultades las que constituyen el hilo conductor de la búsqueda de alguna solución mediante un ordenamiento de los hechos que resulte adecuado, que exprese conexiones relevantes y aceptables en términos de la disciplina. El método científico deberá elegirse teniendo en cuenta el tipo de investigación encarado y será el procedimiento para probar las hipótesis examinando evidencias favorables o desfavorables.
   El problema es la ocasión de la investigación y la solución del problema es el objetivo de la investigación. (el conocimiento de que se dispone lleva incluida la transformación factible de la realidad rural).

Máquina de Vapor

Una máquina de vapor es un motor de combustión externa que transforma la energía térmica de una cantidad de vapor de agua en energía mecánica. En esencia, el ciclo de trabajo se realiza en dos etapas:
  • El vapor a presión se controla mediante una serie de válvulas de entrada y salida que regulan la renovación de la carga; es decir, los flujos del vapor hacia y desde el cilindro.
El motor o máquina de vapor se utilizó extensamente durante la Revolución Industrial, en cuyo desarrollo tuvo un papel relevante para mover máquinas y aparatos tan diversos como bombas, locomotoras, motores marinos, etc. Las modernas máquinas de vapor utilizadas en la generación de energía eléctrica no son ya de émbolo o desplazamiento positivo como las descritas, sino que son turbomáquinas; es decir, son atravesadas por un flujo continuo de vapor y reciben la denominación genérica de turbinas de vapor. En la actualidad la máquina de vapor alternativa es un motor muy poco usado salvo para servicios auxiliares, ya que se ha visto desplazado especialmente por el motor eléctrico en la maquinaria industrial y por el motor de combustión interna en el transporte
Máquina de vapor. Véase también la Animación gif de una máquina de vapor.

lunes, 29 de noviembre de 2010

Ambito Automotriz

Descripción del aviso de empleo:

Grupo Disda Internacional, solicita personal que cumpla con los siguientes requisitos para cubrir la vacante de Ayudante General para Detallado Automotriz. Los productos Meguiar's están dirigidos al sector automotriz, (agencias autos, tallers de hojalatería y pintura, auto lavados, tiendas de pintura automotriz, auto boutiques, restauradores, aplicadores y consumidor final) están enfocados a la limpieza, cuidado, mantenimiento, detallado y acabados profesionales automotrices (ceras, shampoos, pulimentos, abrillantadores accesorios, etc.)
IMPORTANTE- BUSCAMOS PERSONAS A LAS CUALES LES AGRADE TRABAJAR EN EL MEDIO AUTOMOTRIZ A CUALQUIER NIVEL.
Objetivo de la vacante- Aprender y realizar el trabajo de limpieza y detallado automotriz profesional a domicilio (ofrecemos capacitación constante).
Funciones Especificas del Ayudante General: Colaborar en la entrega de pedidos de producto - Realizará visitas a cartera de clientes y prospectos nuevos, dando seguimiento a sus solicitudes del producto Meguiar's.
Estas funciones las realizará los días que no haya detallado Automotriz.
Requisitos necesarios: Estudios mínimos Secundaria o Bachillerato
Sexo Masculino
Edad de 19 a 25 años
Estado civil, indispensable SOLTERO
Excelente presentación Disponibilidad de horario Perfil de la Vacante: Indispensable que cumplan con las siguientes caracteristicas, en caso de NO reunir este perfil innecesario comunicarse.
Actitud de Servicio, trato amable y atento "OBLIGATORIO" Sepa manejar la presión de trabajo .
Que participe y se integre en el negocio del detallado automotriz
Sueldo mensual fijo $2,400 más $100.00 de comisión por detallado automotriz
Horarios de Lunes a Viernes de 9:00 a.m. a 6:00 p.m. y Sábados de 9:00 a.m. a 2:00 p.m.

lunes, 22 de noviembre de 2010

Tendencias hacia el futuro de la tecnologìa de almacenamiento

La industria busca las claves para que sus clientes puedan salvaguardar cada vez más datos sin incrementar su inversión en tecnologías de almacenamiento. Las tecnologías de deduplicación, compresión de datos, virtualización o thin provisioning y la tendencia hacia la ‘nube’ marcarán el futuro de este mercado.
El exponencial crecimiento de los datos e información estructurada y no estructurada que las organizaciones se ven obligadas a salvaguardar está provocando más de un dolor de cabeza a los responsables de gestionar el almacenamiento. Hay que almacenar la información, sí, pero ¿cómo hacerlo para no incrementar los costes de forma desmesurada en el cada vez más constreñido presupuesto de TI? ¿Cómo guardar la información de forma que esté en el sitio adecuado y siempre lista para ser encontrada? En el mercado se habla de diversas tecnologías –deduplicación, almacenamiento en capas, virtualización– pero ¿cuáles son las más adecuadas en función del tipo de datos a almacenar? 

Daniel Calvo, director de consultoría tecnológica de EMC Iberia, pone cifra al exponencial incremento de datos a almacenar: “Como constata un estudio que elaboró para nosotros IDC, la cantidad de información digital creada anualmente en todo el mundo crecerá 44 veces del año 2009 al 2020”. Sin embargo, como recuerda el propio Calvo, “ni los presupuestos de TI ni los recursos humanos para gestionar este almacenamiento crecerán. Por ello, la clave para hacer esto sostenible no es otra que estratificar la información, de modo que cada dato esté en el sitio adecuado. Este mensaje que lleva ya un tiempo en el mercado, pero hay que ir más allá: hay que estratificar la información de forma automática”.

Ángel Fernández, director general de Hitachi Data Sytems (HDS) quien también apunta a incrementos de los datos a almacenar que superan un 30%, añade que lo peor de esta situación es “la ineficiencia que genera, ya que según diversas estadísticas, un 40% de la capacidad de almacenamiento o no se utiliza o no se aprovecha de forma eficiente”. Además, apostilla, “la mayor parte de los costes de los departamentos de TI no viene por la adquisición de más equipamiento (CAPEX), sino por la complejidad de su gestión (OPEX). Así que las mejoras pasan por una gestión de los datos simple y eficiente, es decir, por software de gestión que elimine mano de obra”.

En efecto, parece que el mantenimiento es lo que más costes genera, como apunta Sara Martínez, responsable de soluciones de almacenamiento empresarial de HP. “Las organizaciones de TI encuentran barreras infranqueables para invertir en innovación ya que se sigue destinando la mayor parte de los presupuestos a mantener la operación de TI. Más de la mitad de los ejecutivos de negocios y tecnología opina que esto impide que sus empresas sean competitivas”. Para Martínez, las mayores inquietudes de las compañías hoy día siguen siendo la consolidación y la seguridad de datos y afrontar el crecimiento exponencial de los mismos, todo gestionado de forma sencilla desde una única herramienta. “Las compañías demandan soluciones que eliminen la complejidad y el exceso de equipamiento que han tendido en sus entornos de TI. Para mejorar la eficiencia del almacenamiento de datos las compañías necesitan soluciones innovadoras en todas las áreas del centro de datos, dando como resultado mayores niveles de simplificación, rendimiento y ahorro”, indica.

En este sentido, como apunta José Pablo Gómez, director de la división de almacenamiento en IBM España, Portugal, Grecia e Israel,los proveedores del mercado del almacenamiento han invertido en los últimos años para desarrollar tecnologías que facilitan la administración de un cada vez mayor volumen de datos, sin que ello implique un mayor número de capacidad en disco en sus instalaciones

Comparación de los diferentes tipos de almacenamiento internos y externos para guardar la información asi, como las tecnologías que existen en los sistemas de computo , ventajas y desventajas. (velocidad de lectura y escritura, capacidad, fiabilidad, tiempo de vida). (-Discos duros , Discos solidos, Cd-ROM, CD-RAM, Blue Ray ).

INTRODUCCIÓN.
Debido a la cantidad de información que manejamos actualmente, los dispositivos de almacenamiento se han vuelto casi tan importantes como el mismísimo computador.
Aunque actualmente existen dispositivos para almacenar que superan las 650 MB de memoria, aún seguimos quejándonos por la falta de capacidad para transportar nuestros documentosy para hacer Backups de nuestra información más importante. Todo esto sucede debido al aumento de software utilitario que nos permite, por dar un pequeño ejemplo, convertir nuestros Cds en archivos de Mp3.
El espacio en nuestro Disco duroya no es suficiente para guardar tal cantidad de información; por lo que se nos es de urgencia conseguir un medo alternativo de almacenamiento para guardar nuestros Cds en Mp3 o los programas que desacargamos de Internet.
La tecnologíaóptica
la tecnología óptica de almacenamiento por láseres bastante más reciente. Su primera aplicación comercial masiva fue el superexitoso CD de música, que data de comienzos de la década de 1.980. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo.
Realmente, el métodoes muy similar al usado en los antiguos discos de vinilo, excepto porque la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio.
Disco de vídeo digital
Disco de vídeo digital, también conocido en la actualidad como disco versátil digital (DVD), un dispositivo de almacenamiento masivo de datos cuyo aspecto es idéntico al de un disco compacto, aunque contiene hasta 25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un CD-ROM. Su mayor capacidad de almacenamiento se debe, entre otras cosas, a que puede utilizar ambas caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos; no obstante, los lectores de CD no permiten leer DVDs.
En un principio se utilizaban para reproducir películas, de ahí su denominación original de disco de vídeo digital. Hoy, los DVD-Vídeo son sólo un tipo de DVD que almacenan hasta 133 minutos de película por cada cara, con una calidad de vídeo LaserDisc y que soportan sonidodigital Dolby surround; son la base de las instalaciones de cineen casa que existen desde 1996. Además de éstos, hay formatos específicos para la computadora que almacenan datos y material interactivo en forma de texto, audio o vídeo, como los DVD-R, unidades en las que se puede grabar la información una vez y leerla muchas, DVD-RW, en los que la información se puede grabar y borrar muchas veces, y los DVD- RAM, también de lectura y escritura.
En 1999 aparecieron los DVD-Audio, que emplean un formato de almacenamiento de sonido digital de segunda generación con el que se pueden recoger zonas del espectro sonoro que eran inaccesibles al CD-Audio.
Todos los discos DVD tienen la misma forma físicay el mismo tamaño, pero difieren en el formato de almacenamiento de los datos y, en consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una capa almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas almacenan hasta 17 GB. Del mismo modo, no todos los DVDs se pueden reproducir en cualquier unidad lectora; por ejemplo, un DVD-ROM no se puede leer en un DVD-Vídeo, aunque sí a la inversa.
Por su parte, los lectores de disco compacto, CD, y las unidades de DVD, disponen de un láser, ya que la lectura de la información se hace por procedimientos ópticos. En algunos casos, estas unidades son de sólo lectura y en otros, de lectura y escritura.
Tipos de discos compactos


Disco duro
Disco duro, en los ordenadores o computadoras, unidad de almacenamiento permanente de gran capacidad. Está formado por varios discos apilados —dos o más—, normalmente de aluminio o vidrio, recubiertos de un material ferromagnético. Como en los disquetes, una cabeza de lectura/escritura permite grabar la información, modificando las propiedades magnéticas del material de la superficie, y leerla posteriormente (La tecnología magnética, consiste en la aplicación de campos magnéticos a ciertos materialescuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien sean una canción, bien los bits que forman una imagen o un documento importante.); esta operación se puede hacer un gran número de veces.
La mayor parte de los discos durosson fijos, es decir, están alojados en el ordenador de forma permanente. Existen también discos duros removibles, como los discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de información de un ordenador a otro.
El primer disco duro se instaló en un ordenador personalen 1979; era un Seagate con una capacidad de almacenamiento de 5 MB. Hoy día, la capacidad de almacenamiento de un disco duro puede superar los 50 MB. A la vez que aumentaba la capacidad de almacenamiento, los discos duros reducían su tamaño; así se pasó de las 12 pulgadas de diámetro de los primeros, a las 3,5 pulgadas de los discos duros de los ordenadores portátiles o las 2,5 pulgadas de los discos de los notebooks (ordenadores de mano).
Modernamente, sólo se usan en el mundo del PC dos tipos de disco duro: el IDE y el SCSI (leído "escasi"). La diferencia entre estos Discos duros radica en la manera de conectarlos a la MainBoard.
IDE
Los discos IDE son los más habituales; ofrecen un rendimiento razonablemente elevado a un precioeconómico y son más o menos fáciles de instalar. Sin embargo, se ven limitados a un número máximo de 4 dispositivos (y esto con las controladoras EIDE, las IDE originales sólo pueden manejar 2).
Su conexión se realiza mediante un cable plano con conectores con 40 pines colocados en dos hileras (aparte del cable de alimentación, que es común para todos los tipos de disco duro). Así pues, para identificar correctamente un disco IDE basta con observar la presencia de este conector, aunque para estar segurosal 100% deberemos buscar unos microinterruptores ("jumpers") que, en número de 2 a 4, permiten elegir el orden de los dispositivos (es decir, si se comportan como "Maestro" o como "Esclavo").
SCSI
Esta tecnología es mucho menos utilizada, pero no por ser mala, sino por ser relativamente cara. Estos discos suelen ser más rápidos a la hora de transmitir datos, a la vez que usan menos al procesador para hacerlo, lo que se traduce en un aumento de prestaciones. Es típica y casi exclusiva de ordenadores caros, servidores de redy muchos Apple Macintosh.
Los conectores SCSI son múltiples, como lo son las variantes de la norma: SCSI-1, SCSI-2, Wide SCSI, Ultra SCSI... Pueden ser planos de 50 contactos en 2 hileras, o de 68 contactos, o no planos con conector de 36 contactos, con mini-conector de 50 contactos...
Una pista para identificarlos puede ser que, en una cadena de dispositivos SCSI (hasta 7 ó 15 dispositivos que van intercalados a lo largo de un cable o cables, como las bombillas de un árbol de Navidad), cada aparato tiene un número que lo identifica, que en general se puede seleccionar. Para ello habrá una hilera de jumpers, o bien una rueda giratoria, que es lo que deberemos buscar.
MFM, ESDI
Muy similares, especialmente por el hecho de que están descatalogados. Su velocidad resulta insufrible, más parecida a la de un disquete que a la de un disco duro moderno. Se trata de cacharros pesados, de formato casi siempre 5,25 pulgadas, con capacidades de 10, 20, 40 o hasta 80 megas máximo.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Dispositivos Periféricos.
Jaz (Iomega) - 1 GB ó 2 GB
 Para ver el gráfico seleccione la opción "Descargar" del menú superior 
  • Pros: capacidad muy elevada, velocidad, portabilidad
  • Contras: inversióninicial, no tan resistente como un magneto-óptico, cartuchos relativamente caros
Las cifras de velocidad del Jaz son absolutamente alucinantes, casi indistinguibles de las de un disco duro moderno: poco más de 5 MB/s y menos de 15 ms. La razón de esto es fácil de explicar: cada cartucho Jaz es internamente, a casi todos los efectos, un disco duro al que sólo le falta el elemento lector-grabador, que se encuentra en la unidad.
Por ello, atesora las ventajas de los discos duros: gran capacidad a bajo precio y velocidad, junto con sus inconvenientes: información sensible a campos magnéticos, durabilidad limitada en el tiempo, relativa fragilidad. De cualquier forma, y sin llegar a la extrema resistencia de los discos Zip, podemos calificar este soporte de duroy fiable, aunque la información nunca estará tan a salvo como si estuviera guardada en un soporte óptico o magneto-óptico.
Aplicaciones
Almacenamiento masivo de datos que deben guardarse y recuperarse con la mayor velocidad posible, lo cual lo hace ideal para la edición de vídeo digital (casi una hora en formato MPEG); en general, sirve para lo mismo que los discos duros, pero con la ventaja de su portabilidad y fácil almacenaje.
En cuanto a defectos y críticas, aparte de que los datos no duren "para siempre", sólo tiene un inconveniente: el precio. La unidad lectora-grabadora de 1 GB vale una respetable cantidad de dinero, unos $650.000, y los discos unos $180.000 c/u.
Zip (Iomega) - 100 MB
Pros: portabilidad, reducido formato, precio global, muy extendido
Contras: capacidad reducida, incompatible con disquetes de 3,5"
Las unidades Zip se caracterizan externamente por ser de un color azul oscuro, al igual que los disquetes habituales (los hay de todos los colores). Estos discos son dispositivos magnéticos un poco mayores que los clásicos disquetes de 3,5 pulgadas, aunque mucho más robustos y fiables, con una capacidad sin compresión de 100 MB una vez formateados.
Su capacidad los hace inapropiados para hacer copias de seguridad del disco duro completo, aunque perfectos para archivar todos los archivos referentes a un mismo tema o proyectoen un único disco. Su velocidad de transferencia de datos no resulta comparable a la de un disco duro actual, aunque son decenas de veces más rápidos que una disquetera tradicional (alrededor de 1 MB/s).
Existen en diversos formatos, tanto internos como externos. Los internos pueden tener interfaz IDE, como la de un disco duro o CD-ROM, o bien SCSI; ambas son bastante rápidas, la SCSI un poco más, aunque su precio es también superior.
Las versiones externas aparecen con interfaz SCSI (con un rendimiento idéntico a la versión interna) o bien conectable al puerto paralelo, sin tener que prescindir de la impresora conectada a éste. El modelo para puerto paralelopone el acento en la portabilidad absoluta entre ordenadores (Sólo se necesita que tengan el puerto Lpt1) aunque su velocidad es la más reducida de las tres versiones. Muy resistente, puede ser el acompañante ideal de un portátil.
Ha tenido gran aceptación, siendo el estándar en su segmento, pese a no poder prescindir de la disquetera de 3,5" con la que no son en absoluto compatibles, aunque sus ventajas puede que suplan este inconveniente. El precio de la versión interna ronda los $262.500 (más IVA) y los Discos alrededor de $35.000 (más IVA).
Muchas de las primeras unidades Zip sufrían el denominado "mal del click", que consistía en un defecto en la unidad lectora-grabadora que, tras hacer unos ruiditos o "clicks", destrozaba el disco introducido; afortunadamente, este defecto está corregido en las unidades actuales. En todo caso, los discos son bastante resistentes, pero evidentemente no llegan a durar lo que un CD-ROM.

Comparación de los diferentes sistemas operativos , en el rubro de velocidad, versatilidad, y estabilidad.

El objetivo de este artículo es comparar las diferentes versiones de Windows, especialmente las más conocidas y las más vendidas. Windows XP x86 ( 32 bits ), Windows XP x64 ( 64 bits ), Windows Vista x86 ( 32 bits ) et Windows Vista x64 ( 64 bits ). Lo que queremos hacer notar en este artículo es que todo lo que se dice sobre algunas versiones de Windows es a veces falso. Además hacer un pequeño comparativo que permita ver con un poco mas de claridad las capacidades de estos sistemas operativos.

Para probar mi teoría, a saber, que Windows es un sistema que no es perfecto pero que, empleado en el buen equipo y con una buena configuración, puede ser un sistema conveniente. He utilizado mi PC y los CD que tenia de Windows para hacer un test imparcial de las diferentes versiones del sistema operativo.

Como lo podrás apreciar en este test, cada versión de Windows es probado bajo los mismo criterios en un mismo PC para que el test sea lo más confiable posible. Los resultados en si no tienen mucha importancia. So tu obtienes mejores o peores resultados no es tan importante. Lo importante es comparación entre los diferentes sistemas operativos.

Comencemos!

Las versiones de Windows probadas

  • Windows XP x86 - 32 bits + SP3
  • Windows XP x64 - 64 bits + SP2
  • Windows Vista x86 - 32 bits + SP1
  • Windows Vista x64 - 64 Bits + SP1


Características del equipo en el que se realizó el test

  • Procesador: Core Duo 2 3.0 Ghz 64 Bits
  • Memoria: 3.0 Go (3 Módulos de 1 GB) Kingston
  • Tarjeta gráfica: Nvidia 8600 GTS 1024 MB
  • Memoria Usb: 512 MB sin marca
  • Disco duro Principal: Maxtor 80 gb SATA (2 particiones)
  • Disco duro secundario: Seagate 250 GB ATA (2 particiones)
  • Grabadora: DVD 12x
  • Red: 100 Mb/s


Pequeñas precisiones antes de comenzar el test:
El programa de test que he utilizado es TESTLAB 2008. He elegido este programa por dos sencillas razones:
  • Sus resultados en forma de gráficos muy claros
  • Su capacidad de mostrar siempre los mismos resultados (los otros varían en función del uso del PC)


El test ha sido llevado a cabo bajo condiciones similares para todos los sistemas operativos:
  • Sin overclocking
  • Sin antivirus activo
  • Sin cortafuegos
  • Sin ninguna tarea en curso, salvo las tareas de Windows (svchost...)
  • Justo después de haber realizado la desfragmentación (con JKDefrag)
  • Sin conexión a Internet

viernes, 12 de noviembre de 2010

Diferencia en las generaciones de las computadoras. Relacionada con la velocidad, capacidad de memoria, y graficos.

  • Primera generación (1946-1958): La primera generación de computadoras se caracteriza por el rasgo más prominente de el lenguaje de después de cambiar la misma.
Durante la década de 1950 se construyeron varias computadoras notables, cada una contribuyó con avances significativos: uso de la aritmética binaria, acceso aleatorio y el concepto de programas almacenados.
El invento de los transistores significó un gran avance, ya que permitió la construcción de computadoras más poderosas, más confiables, y menos costosas. Además ocupaban menos espacio y producían menos calor que las computadoras que operaban a bases de tubos de vacío.
  • Cuarta Generación (1971-1988]): en la cuarta generación se encuentran las computadoras u ordenadores de funcionamientos muy avanzados y complejos, las cuales conocemos hoy día, y estas se encuentran en las grandes organizaciones como son Organismos de investigación y organismos de educación como las universidades.
Realmente no existen generaciones de ordenadores propiamente dichas, puesto que mucha gente interpreta los cambios de un modo distintos y muchos libros se contradicen sobre las generaciones.