SILVI_DTB

Just another Blog de ESPOL weblog

Sistema de Información Geográfica (SIG o GIS)

diciembre7

¿Qué es un SIG?
Un Sistema de Información Geográfica (SIG o GIS, en su acrónimo inglés [Geographic Information System]) es una integración organizada de hardware, software y datos geográficos diseñada para capturar, almacenar, manipular, analizar y desplegar en todas sus formas la información geográficamente referenciada con el fin de resolver problemas complejos de planificación y gestión.
FUNCIONAMIENTO DE UN SIG
El SIG funciona como una base de datos con información geográfica (datos alfanuméricos) que se encuentra asociada por un identificador común a los objetos gráficos de un mapa digital. De esta forma, señalando un objeto se conocen sus atributos e, inversamente, preguntando por un registro de la base de datos se puede saber su localización en la cartografía.
La razón fundamental para utilizar un SIG es la gestión de información espacial. El sistema permite separar la información en diferentes capas temáticas y las almacena independientemente, permitiendo trabajar con ellas de manera rápida y sencilla, y facilitando al profesional la posibilidad de relacionar la información existente a través de la topología de los objetos, con el fin de generar otra nueva que no podríamos obtener de otra forma.
Las principales cuestiones que puede resolver un Sistema de Información Geográfica, ordenadas de menor a mayor complejidad, son:
1.    Localización: preguntar por las características de un lugar concreto.
2.    Condición: el cumplimiento o no de unas condiciones impuestas al sistema.
3.    Tendencia: comparación entre situaciones temporales o espaciales distintas de alguna característica.
4.    Rutas: cálculo de rutas óptimas entre dos o más puntos.
5.    Pautas: detección de pautas espaciales.
6.    Modelos: generación de modelos a partir de fenómenos o actuaciones simuladas.
Por ser tan versátiles, el campo de aplicación de los Sistemas de Información Geográfica es muy amplio, pudiendo utilizarse en la mayoría de las actividades con un componente espacial. La profunda revolución que han provocado las nuevas tecnologías ha incidido de manera decisiva en su evolución.
LA CREACIÓN DE DATOS
Las modernas tecnologías SIG trabajan con información digital, para la cual existen varios métodos utilizados en la creación de datos digitales. El método más utilizado es la digitalización, donde a partir de un mapa impreso o con información tomada en campo se transfiere a un medio digital por el empleo de un programa de Diseño Asistido por Ordenador (DAO o CAD) con capacidades de georreferenciación.
Dada la amplia disponibilidad de imágenes orto-rectificadas (tanto de satélite y como aéreas), la digitalización por esta vía se está convirtiendo en la principal fuente de extracción de datos geográficos. Esta forma de digitalización implica la búsqueda de datos geográficos directamente en las imágenes aéreas en lugar del método tradicional de la localización de formas geográficas sobre un tablero de digitalización.
Desarrollo histórico de los Sistemas de Información Geográfica
Es, sin duda, una disciplina relativamente reciente. No se puede hablar de Sistemas de
Información Geográfica, propiamente dichos, hasta los años sesenta, aunque en los cincuenta
hubiera una serie de antecedentes interesantes (COMAS Y RUIZ, 1993). Al estudiar la
evolución de los SIG, es referencia obligada el mundo anglosajón y, como no, sobre todo
Estados Unidos. A pesar de ello, se ha querido añadir de forma separada un breve epígrafe
para describir los avances y el estado actual en España.
Son los sesenta la década donde se inicia la carrera tecnológica de los SIG. En Canadá
se desarrolla por primera vez un sistema informático que trabajaba con datos geográficos. El
Departamento de Agricultura de ese país encargó a Tomlinson la creación del CGIS
(Canadian Geographic Information System). Es éste, sin duda, el primer Sistema de
Información Geográfica del mundo (TOMLINSON, 1984). Paralelamente en esta misma
década se desarrollaron otros proyectos parecidos en Estados Unidos, como fueron: LUNR
(Land Use and Resource Information System), MLMIS (Minnesota Land Management
Information System), PIOS (Polygon Information Overlay System) y otros (BOSQUE, 1992).
Todas estas iniciativas contribuyeron a despertar un mayor interés en el tratamiento de los
datos geográficos. Lógicamente esta preocupación se advierte con mayor énfasis en aquellas
sociedades donde las condiciones económicas favorecían el desarrollo de estas tecnologías
(TOMLINSON, 1990). A pesar de las primeras tentativas canadienses, es Estados Unidos la
nación donde los SIG van a tener el campo de experimentación adecuado, tanto entre las
instituciones públicas como en las privadas, y por ello va a ser en este país donde se
desarrollen las aplicaciones de mayor envergadura e importancia.
Ya en los años setenta se celebra la primera conferencia sobre SIG organizada por la IGU (International Geographical Union) que reúne a 40 participantes (TOMLINSON, 1990).
Durante la misma década, en EE.UU. destacan cuatro organismos: uno del ámbito
universitario, Harvard University; dos dentro del grupo de instituciones públicas, United
States Census Bureau (USCB) y United States Geological Survey (USGS); y, por último, uno
de la empresa privada, Environmental System Research Institute (ESRI) (COMAS Y RUIZ,
1993). Todos ellos participaron de una u otra forma en la consolidación de los Sistemas de
Información Geográfica en este periodo en Estados Unidos.
Hay que señalar como último hito reseñable la creación del Centro Nacional para la
Investigación Geográfica y Análisis (NCGIA) por la Fundación Nacional de Ciencias de los
Estados Unidos de América en 1988, cuya finalidad era “desarrollar investigación básica
sobre el análisis geográfico utilizando los Sistemas de Información Geográfica” (BOSQUE,
1992). A partir de ese momento va a ser la institución que asumirá el protagonismo en las
investigaciones de la nueva disciplina.
Quizás los años ochenta han sido los del despegue definitivo y mayor apogeo de la
nueva tecnología. Las empresas privadas tomaron el relevo a las instituciones públicas y cada
vez son más los programas comerciales ofertados. En las décadas anteriores, el software
estaba orientado principalmente a cubrir las necesidades de las instituciones que los
desarrollaban. A partir de dicha década y hasta la actualidad se trabaja en SIG ‘genéricos’ que
puedan servir a diferentes usuarios y, en todo caso, es con posterioridad a la adquisición
cuando se individualiza su uso en función de las necesidades del cliente.
En Europa, es el Reino Unido donde aparecen algunas de las iniciativas más
interesantes. Tal circunstancia ocurre de forma casi paralela en el tiempo a los desarrollados
en EE.UU., y los organismos más destacados son Ordnance Survey (OS) y Experimental
Cartographic Unit (ECU) (COMAS Y RUIZ, 1993). Sobre todo el objetivo buscado se
orienta a la sustitución de los métodos tradicionales cartográficos, destacando el ejemplo del
OS (el Instituto Cartográfico Británico).
La Unión Europea también participa del interés por desarrollar los Sistemas de
Información Geográfica. En un informe de la Comisión Europea se afirma que los SIG significan a la industria europea más de 150 millones de Euros y cerca de dos millones de
empleos. En el mismo documento se añade que Naciones Unidas ha estimado que los países
desarrollados gastan aproximadamente el 0.1% de su PNB en información geográfica. Todo
ello ha provocado la creación de EUROGI1 (European Umbrella Organization for Geographic
Information) en 1993 que entre otras iniciativas ha desarrollado GI 2000 que es un plan para
el desarrollo de la infraestructura de información geográfica en la Unión Europea. Entre los
proyectos puestos en marcha por la UE caben destacar: Enviducation, Ergis, Euripides,
Explorer, Magis, Omega, Titan y Vital.

Captura de datos

La teledetección es una de las principales fuentes de datos para los SIG. En la imagen artística una representación de la constelación de satélites RapidEye.
Las modernas tecnologías SIG trabajan con información digital, para la cual existen varios métodos utilizados en la creación de datos digitales. El método más utilizado es la digitalización, donde a partir de un mapa impreso o con información tomada en campo se transfiere a un medio digital por el empleo de un programa de Diseño Asistido por Ordenador (DAO o CAD) con capacidades de georreferenciación.
Dada la amplia disponibilidad de imágenes orto-rectificadas (tanto de satélite y como aéreas), la digitalización por esta vía se está convirtiendo en la principal fuente de extracción de datos geográficos. Esta forma de digitalización implica la búsqueda de datos geográficos directamente en las imágenes aéreas en lugar del método tradicional de la localización de formas geográficas sobre un tablero de digitalización.

LA REPRESENTACIÓN DE LOS DATOS
Los datos SIG representan los objetos del mundo real (carreteras, el uso del suelo, altitudes). Los objetos del mundo real se pueden dividir en dos abstracciones: objetos discretos (una casa) y continuos (cantidad de lluvia caída, una elevación). Existen dos formas de almacenar los datos en un SIG: raster y vectorial.
Los SIG que se centran en el manejo de datos en formato vectorial son más populares en el mercado. No obstante, los SIG raster son muy utilizados en estudios que requieran la generación de capas continuas, necesarias en fenómenos no discretos; también en estudios medioambientales donde no se requiere una excesiva precisión espacial (contaminación atmosférica, distribución de temperaturas, localización de especies marinas, análisis geológicos, etc.).

Ventajas y desventajas del modelo vectorial y raster

VECTOR    RASTER
VENTAJAS

  • Buena similitud de las formas.
  • Cálculo mas preciso de áreas, perímetros y longitudes.
  • Análisis de redes más consistentes
  • Se pueden adaptar bajo bases de datos orientadas a objetos
  • Estructura más simple
  • Asimilación más directa a datos de sensores remotos
  • Operaciones de superposición más sencillas
  • Análisis espaciales como distribución, densidad y de superficie, mas eficientes.
  • la unidad espacial conserva la misma forma y tamaño de modo que se facilitan las simulaciones
  • Útil para análisis de grandes extensiones con baja precisión de propiedades espaciales.

________________________________________
DESVENTAJAS

  • Estructura más compleja
  • Las superposiciones exigen más verificación de errores y pueden ser más lentas
  • La diferente topología de las unidades espaciales dificulta los ejercicios de simulación    •    Alto nivel de error en estimaciones de área, perímetro y longitud
  • Gran espacio de almacenamiento a medida que aumenta la resolución
  • Desperdicio de espacio de almacenamiento para datos espaciales muy esparcidos
  • Análisis de redes muy complejos y menos consistentes
  • Transformación de coordenadas menos eficiente

Datos Espaciales:

La componente espacial hace referencia tanto a la localización
geográfica y a las propiedades espaciales de los objetos, como a las
relaciones espaciales que existen entre ellos.
Localización geográfica: Posición en un sistema de coordenadas.
Propiedades espaciales: Cambian según el objeto ( Ej. para una línea su
longitud, para un polígono su superficie).
Relaciones espaciales: Corresponden a la relación de los objetos entre sí
(Ej. Conectividad, contigüidad, proximidad).
•Relaciones topológicas (cualitativas).
•Relaciones geométricas (calculadas desde las coordenadas de un objeto).
Datos no Espaciales:
Constituyen la componente temática, también llamados atributos,
características o variables).
Son los hechos sobre una realidad, los cuales son independientes de
toda consideración geométrica.
•Tiempo: El tiempo genera cambios en los datos espaciales y no
espaciales (juega por lo tanto un papel fundamental en la Geografía) y
debe considerarse en los SIT/SIG.
Datos Espaciales versus Datos no Espaciales:
•La distinción entre datos espaciales y no espaciales tiene implicancia en
el modelo de datos a elegir para un SIT/SIG y en el procesamiento y
almacenamiento de los datos. Esta distinción justifica la consideración de
modelos de datos espaciales y no espaciales.
Captura de datos

  • Importación de información espacial directamente de archivos digitales.
  • Creación de datos:   Tableta digitalizadora: Proporciona como resultado un conjunto de pares de coordenadas que pueden   representar puntos, líneas y polígonos.
  • Escáner: Genera una matriz de valores que representa la desigual reflectancia de pequeñas partes de la imagen original.
  • Tratamiento de imagen digital:
  • Edición manual o semiautomática:
  • Supresión de información innecesaria.
  • Completar las entidades (cerrar una región, reducir el grosor de las líneas, etc.).
  • Dotar imagen de geometría del proyecto. (funciones de transformación).

Rasterización de datos vectoriales
Es el procedimiento a través del cual se convierten datos vectoriales (puntos, líneas y polígonos) a formato raster, formados éstos por celdas (píxeles) con un valor temático discreto en cada una. Es más sencillo que el procedimiento contrario, la conversión de datos raster a formato vectorial.
vectorización de datos raster
Es el procedimiento que convierte una imagen formada por celdas en un archivo vectorial. Puede o no incluir la creación de topología.
La proyección es el resultado del proceso de llevar la superficie del globo en 3D a un plano.

Las proyecciones pueden ser planas, cilíndricas o cónicas.
Según los elementos que se conservan las proyecciones pueden ser:
•    Ortomórficas o conformes  (se conserva la angularidad entre ejes). Colombia emplea proyección ortomórfica
•    De área equivalente (se conservan las áreas)
•    Equidistantes (se conservan las distancias)
•    De dirección verdadera (se conserva la orientación norte
La georreferenciación puede realizarse mediante un sistemas de coordenadas planas (E-N) y geográficas (Latitud-longitud).

Superposicion de mapas

DISOLVER  (Disolve)
Se genera una nueva capa en la cual se disuelven los limites entre polígonos que comparten un mismo valor de un atributo dado.
FUSIONAR (Merge)
Permite que dos capas de un mismo tipo temático se fusionen en una sola. Es útil cuando se ha desarrollado la captura geográfica de un territorio amplio en diversos segmentos o planchas facilitando su empalme.

LIMITAR A UNA FIGURA (Clip)
Restringe la información de una capa exclusivamente al contorno seleccionado en otra. Útil. por ejemplo, para extraer de los suelos de un departamento sólo lo que corresponde a una determinada cuenca.

UNIÓN ESPACIAL (Spatial Join)
Permite establecer una relación de inclusión, proximidad o pertenencia entre entre elementos espaciales por unión (join) entre sus tablas respectivas en relaciones uno a muchos o 1-1.  Útil, por ejemplo, cuando se desea saber a que vereda pertenece cada escuela en un territorio,  cual es el pozo mas cercano a un cultivo, etc.

INTERSECCIÓN
Es la típica superposición vectorial. Se genera una tercera capa que contiene el área en común entre dos capas agrupando el conjunto de polígonos formados por el cruce de sus contornos. Útil para generación de mapas de conflictos de uso y relaciones entre entidades de área (p.ej. bosques y predios).

UNIÓN
Tal como en teoría de conjuntos, en la unión se genera una tercera capa que contiene tanto los polígonos de intersección como también los polígonos no comunes entre las capas.

SUPERPOSICIÓN RASTER En la superposición raster se genera una nueva capa donde cada celda se le asigna el valor que resulte de operaciones entre cada celda y su equivalente en las otras capas involucradas.
Son muy diversas las operaciones o funciones que se pueden aplicar entre valores de celdas. Entre estas superposiciones están las lógicas de condición  AND (cúmplase en todas las capas) y la superposición lógica OR (cúmplase en una "o"  en otra).

Cartografía automatizada
La Cartografía automatizada es, por lo tanto, el reflejo funcional de las necesidades de la Sociedad de la Información, al convertirse en una interfase modélico-gráfica muy eficaz en los DSS (Decision Support System, Sistemas Soporte de toma de Decisiones), dentro de los MIS (Management Information Systems, Sistemas de Información para la Gestión y el Planeamiento).
La consulta de datos estratégicos sobre el territorio, a través de una modelización espacial de su ubicación sobre la superficie terrestre, está ofreciendo una vía de trabajo de gran fecundidad en las cuestiones relativas a la ordenación del territorio. La intervención de carácter interdisciplinar, propia de las tareas de planificación, encuentra en la moderna Cartografía un lenguaje gráfico que facilita la interpretación y uso de la información aportada por diversos grupos profesionales, a la par que amplia su capacidad temática funcional.

Geoestadística

La Geoestadística implica el análisis y la estimación de fenómenos espaciales o temporales, tales como: calidades de metal, porosidades, concentraciones de contaminantes.

La palabra Geoestadística es normalmente asociada con la Geología, desde que esta ciencia tiene sus orígenes en la minería.
Hoy en día, la Geoestadística es un nombre asociado con una clase de técnicas, para analizar y predecir los valores de una variable que está distribuida en espacio o tiempo. Se asumen tales valores implícitamente, para ser puestos en correlación entre sí, y el estudio de semejante correlación normalmente se llama un "análisis estructural" o un "Variograma". Después del análisis estructural, se hacen estimaciones a las situaciones de los sectores no muestreados usando la técnica de interpolación "Kriging" .
La Geoestadística, tiene como objetivo el caracterizar e interpretar el comportamiento de los datos que están distribuidos espacialmente “variables regionalizadas”.
Los pasos principales de un estudio Geoestadístico son:
o     Análisis de los datos exploratorios.
o     Análisis Estructural (Cálculo y modelación de los Variogramas).
o     Estimaciones (Kriging o simulaciones).

Geocodificación de los objetos geográficos
Proceso que determina la localización espacial de cada objeto.

El proceso de Georreferenciación es un elemento clave de todo SIG ya que es el que permite relacionarlo con otros sistemas de información. Básicamente se puede definir como un procedimiento "mediante el cual un objeto geográfico (un edificio, una parcela de terreno, una carretera, etc.) recibe directa o indirectamente una etiqueta que identifica su posición espacial con respecto a algún punto común o marco de referencia". Este proceso es posible llevarlo a cabo de dos formas: en forma directa, usando para ello un sistema de ejes de coordenadas respecto a los que se determina la posición absoluta de cada lugar; y de manera indirecta, otorgando a cada objeto una dirección o referencia espacial que lo diferencia de los restantes y permite establecer su posición relativa respecto a los demás (como por ejemplo, los códigos postales).
En la Geocodificación directa se establecen unos ejes de coordenadas ortogonales respecto a los cuales se miden las separaciones de los objetos a geocodificar. Existen varios tipos de sistemas de coordenadas terrestres: esféricas (adecuadas para datos espaciales de orden global que abarcan la totalidad o grandes extensiones del planeta) y planas (válidas para porciones más reducidas).

EDI (Intercambio Electrónico de Datos)

diciembre7

¿Qué es EDI?
El Intercambio Electrónico de Datos, más conocido por sus siglas en inglés EDI (Electronic Data Interchange) posibilita la transmisión de datos en un formato normalizado entre los sistemas informáticos de quienes participan en transacciones comerciales con reducción al mínimo de la intervención manual.
Un sistema EDI, combinado con las aplicaciones informáticas y las telecomunicaciones, constituye un sustituto natural del documento en soporte papel en su función de portador de datos para el comercio y las actividades y servicios con él relacionados. EDI significa la transacción comercial sin papeles.
En la práctica, EDI representa el intercambio de mensajes normalizados entre empresas, cubriendo entre otras las necesidades del comercio, el transporte, las aduanas, los seguros y la fabricación. Cada vez es mayor el número de sectores involucrados en proyectos EDI.
EDI no es un correo electrónico de formato libre, sino que contiene datos perfectamente estructurados que pueden ser procesados por los ordenadores con eficacia y sin ambigüedades.
Generalmente, EDI es aplicable cuando:
•    Los participantes comparten un acuerdo predefinido y claro de los asuntos y materias que son objeto de la transacción.
•    La información que se va a intercambiar puede ser transformada en mensajes normalizados.

Funcionalidades de los elementos del sistema EDI
Las principales funciones que soportan los distintos elementos del sistema EDI se muestran en la tabla adjunta.
FUNCION    ELEMENTOS    TIPO
Rastreo    Comunicación Interna    Básica
Identificación    Comunicación Interna    Básica
Extración    Comunicación Interna    Básica
Generación    Convertidor    Básica
Comunicación    Comunicación Externa    Básica
Gestión    Gateway EDI    Avanzada
Seguridad    Gateway EDI    Avanzada
Impresión    Gateway EDI    Avanzada

Estas funciones están tabuladas considerando los elementos del sistema EDI responsables de su realización.
El nivel básico implica la obligatoriedad de su implementación en un sistema EDI. El nivel avanzado recoge aquellas funciones opcionales que el usuario puede incluir en su sistema de forma adicional.
A continuación se incluye un diagrama de la estructura funcional del Intercambio Electrónico de Datos, así como una breve descripción de las funciones del sistema.

Características adicionales del sistema EDI
Son características que permiten diferenciar las distintas implantaciones de EDI:
•    Redes de comunicaciones
•    Seguridad
•    Direccionamiento

La evolución de ese conjunto de transacciones normalizadas llevó a dos estándares:
-ANSI X-12, que en 1970 fue el que se adoptó en la industria americana como resultado de la unificación de criterios, a la vista de que cada sistema de primera generación utilizaba los protocolos de comunicación de los propietarios, y las diferencias entre los modelos de cada propietario daban lugar a confusión. Es por ello, que el intercambio de datos se podía realizar solamente entre empresas cuyos sistemas fueran compatibles.
•    - y el EDIFACT, que es desarrollado en el continente Europeo. Pero en la última reunión en las Naciones Unidas (ONU), se acordó que el estándar internacional fuera EDIFACT.
•    Aunque nos hemos referido al EDIFACT como el estándar de las Naciones Unidas, esta normalización no es universal, pues hay empresas que utilizan sus propios sistemas EDI para uso interno o para sus relaciones con grandes clientes. Generalmente consisten en adaptaciones de EDI ya existentes, que se basan en correo electrónico y son utilizados de forma esporádica y en grupos reducidos.
•    Pero, en ocasiones ha sucedido que a partir de ahí ha crecido el grupo y empiezan a surgir problemas de incompatibilidad. Como consecuencia, muchos sectores de la actividad económica utilizan sus propios EDI.
•    Otro estándar muy conocido es ODETTE. Es una asociación sin ánimo de lucro que, entre otras muchas actividades, define normas EDI para el sector del automóvil. La concepción de Odette se inició originalmente en el Reino Unido en 1983: la industria del automóvil comenzó a trabajar hacia unas normas comunes sobre las prácticas comerciales. Esta actividad fue coordinada en el Reino Unido bajo el auspicio de la Asociación de Fabricantes de Automóviles y proveedores, conocida como SMMT (Society of Motor Manufacturers and Traders).
•    El mismo año en que aparece EDIFACT, EAN Internacional (organismo que promueve el código de barras a nivel internacional y que agrupa a más de 79 asociaciones similares a AECOC en todo el mundo) decidió liderar el desarrollo de un lenguaje común universal que fuera la base de un EDI sin fronteras: el estándar EANCOM, basado en EDIFACT. EANCOM trata de ser una alternativa al desarrollo de estándares EDI particulares, ofreciendo una respuesta única a las necesidades generales de los países miembros de EAN Internacional,
•    El éxito del leguaje EANCOM, como el del código de barras, fue rotundo. Las naciones que no habían desarrollado ningún proyecto EDI adoptaron directamente los mensajes EANCOM, y desarrollaron rápidamente el intercambio electrónico de documentos. Este es el caso de los países sudamericanos (Argentina, Brasil, Chile, Colombia, Guatemala, Perú, ...), asiáticos ( Japón, China, India, Indonesia, Tailandia, ...) y algunos europeos tan próximos como Portugal o Italia.
¿Cómo funciona?
Aunque el concepto de EDI sea sencillo, su práctica es compleja. Existen estándares, pero solo representan un punto de partida que requiere de la intervención humana y del acuerdo de las partes implicadas.
El EDI desempeña un papel fundamental en el modelo empresarial de muchas industrias. Extrae directamente la información de las aplicaciones y transmite los documentos en formato entendible por ordenador, utilizando líneas telefónicas y otros dispositivos de telecomunicaciones, sin necesidad de emplear papel. Al recibir un documento, los sistemas informáticos receptores, cargan directa y automáticamente los datos, procesándolos e interactuándolos. El texto armado bajo estándar EDI, tiene establecidas las posiciones en las cuales se encuentra cada uno de los datos que se requieren para elaborar las transacciones enviadas. Por ello, cuando es recibido, puede ser interpretado por la parte receptora simplemente accionándolo.
La transmsión de datos se realiza a través de las redes de valor añadido y la mayoría de ellas utiliza el protocolo d correo x.25 para transmitir los datos comprimidos y encriptados sobre rutas seguras. Las empresas generalmente pagan por kilocarácter, según el número de caracteres que la VAN transmite o recibe, lo cual puede ser caro para volúmenes elevados.
El software que se ejecuta tanto en los ordenadores remitentes como destinatarios actúa de traductor del formato propietario de la empresa (aplicaciones de gestión comunes) o al formato normalizado estándar empleado (EDIFACT, X.12…)
Desde el punto de vista técnico, el EDI consiste meramente en enviar datos a través de redes y circuitos entre dos ordenadores distantes. Por lo tanto, en principio, cualquier sistema de telecomunicaciones es válido.
Los componentes técnicos usados por EDI son:
•    El formato normalizado o estándar de la información que se intercambia: se acordaron un conjunto de reglas sintácticas para la construcción de mensajes estructurados.
•    El soporte de intercambio o medios de transmisión utilizados para ello.
Los servicios de red más comunes que puede utilizar una empresa para intercambiar documentos EDI son:
•    Transmisión de datos por la red telefónica básica
•    Redes públicas de transmisión de datos
•    Redes de Valor Añadido
•    Redes privadas
•    Burós de Servicio
•    Internet

UPS

diciembre7

Breve historia de la empresa
Fundada en 1907 como una empresa de mensajería en los Estados unidos, UPS se ha convertido en una corporación multimillonaria al tener claramente como meta el hacer posible el comercio en todo el mundo. Actualmente UPS o "United Parcel Service Inc.", es una empresa internacional que lleva una de las marcas más reconocidas del mundo.

Productos y Servicios

Es la mayor empresa de entrega de paquetes y mensajería express del mundo y el líder en servicios de transporte, logística, capital y comercio electrónico. Cada día, manejan el flujo de mercancías, fondos e información en más de 200 países y territorios de todo el mundo.

Ofrece servicios de paquetería y mensajería express en el mundo, servicios de transporte. Logística y capital, comercio electrónico, rastreo del envio, UPS- Returns (Devoluciones),

UPS Supply Chain Solutions

Servicios clave: Logística y distribución; transporte y carga (vía aérea, marítima, terrestre, ferroviaria); agentes de carga; manejo de comercio internacional, servicios de aduana.

Servicios especializados: Logística para piezas de repuesto: reparación técnica y configuración; diseño y planificación de la cadena de suministro, administración de devoluciones.

Instalaciones: 842 instalaciones en más de 120 países, 32 millones de pies cuadrados.

UPS Freight

Servicios Claves: Proveedor lider de servicios de carga parcial (LTL) de costa a costa

Flota de vehículos: 6,334 cabezales; 21,518 cajas de trailers


Datos tecnológicos

Director de información:
David Barnes

Número de empleados en el área de tecnología: 4,606

Centros de datos: Mahwah, NJ y Atlanta, GA:

Unidad de macrocomputadoras: 14

Capacidad de las Macrocomputadoras (Millones de instrucciones por segundo - MIPS): 52,666

Petabytes del servidor y almacenaje UNIX: 8.1

Computadoras de rango medio: 2,296

Estaciones de trabajo conectadas en red LAN: 157,703

Servidores: 12,085

DIADS: 108,644 en uso diario

Red global de telecomunicaciones de UPS:

  • Sitios de la red: 3,200+

Índice de utilización diario promedio de www.ups.com:

  • Vistas de página: 20.4 millones
  • Mayor nivel de utilización en un día en 2009: 27.7 millones

Índice de utilización diario promedio de los servicios de rastreo:

  • Solicitudes de rastreo: 22.4 millones por día laboral
  • 2009 Peak Day: 39,3 million

Premios en el área de tecnología:

  • Uptime Institute: Global Green 100, 2009
  • InformationWeek: Global CIO 50, 2009 - Dave Barnes
  • InformationWeek: Las 500 principales Organizaciones Empresariales Innovadoras de Tecnología, 2009
  • Revista CIO: CIO 100 para uso Efectivo e Innovador de IT, 2009
  • Revista CIO: CIO Salón de la fama, 2008 - Dave Barnes
  • e-Week: Las 100 principales Personas Influyentes en IT, 2008 - Dave Barnes
  • Traffic World: "Wired for Speed" 20 principales proveedores de servicios de almacén, 2008 - UPS SCS
  • Uptime Institute: Empresa Verde premio IT, 2008 - Categoría " Costos operacionales de la Infraestructura física de las Instalaciones " (Energía y refrigeración)
  • Computerworld  Los mejores 100 lugares para trabajar en IT, 2008
  • InfoWorld: Los principales 100 proyectos IT  - UPS Delivery Intercept, 2007

Datos de América Latina.

Establecida en América Latina: 1989

Oficinas principales: Miami, Florida, EE.UU.

Presidente (Latinoamérica y el Caribe): Myron Gray

Área de servicio: Más de 50 países y territorios

Empleados: Más de 6.000 en las América; 425,300 en todo el mundo (358,000 en Estados Unidos; 67,300 internacionales)

Flota automotriz en América Latina: Más de 1,200 vehículos (vehículos, carros de entrega, furgonetas, camiones y motocicletas)

Tramos de Vuelo Diarios: Domésticos 51; Internacionales 41

Aeropuertos Utilizados: Domésticos 43; Internacionales 12

Centro de distribución aéreo en América Latina: Miami, Florida, EE.UU.

Sistema de información:

Recogido de UPS

Con el Recogido de UPS, podrá programar adecuadamente un recogido en cualquier punto en el que tengamos servicio, suyo o de su cliente. Un conductor de UPS llamará a su puerta para efectuar el recogido del paquete.

El Recogido de UPS le ofrece flexibilidad para:

  • Almacenar y comprobar el estado de las solicitudes de recogido de su historial: Puede almacenar y recuperar su historial de recogidos durante 60 días, sin necesidad de recordar el número de solicitud.
  • Confirmación por correo electrónico: Puede enviar confirmaciones por correo electrónico a un máximo de tres direcciones. Si ha solicitado un recogido en la ubicación de un cliente, ahora podrá avisar por adelantado a su cliente, de los detalles de la solicitud de recogido (fecha, hora).
  • Establecer preferencias: Puede grabar sus preferencias para el recogido y el correo electrónico, para que no tenga que volver a entrar esta información cada vez que realice una solicitud.
  • Utilice su libro de direcciones: Utilizando el libro de direcciones para completar los campos automáticamente se evitará tener que volver a entrar direcciones que utilice frecuentemente.

Hewlett Packard - HP

diciembre7

Conocida también como  es una de las mayores empresas de tecnologías de la información del mundo, con sede en Palo Alto, California. Fabrica y comercializa hardware y software además de brindar servicios de asistencia relacionados con la informática. La compañía fue fundada en 1939 y se dedicaba a la fabricación de instrumentos de medida electrónica y de laboratorio. Hoy en día es la empresa líder en venta de impresoras.

Historia

William Hewlett y David Packard eran dos compañeros en la universidad de Stanford. En el garaje de su casa construyeron un oscilador de audio, un instrumento de prueba electrónico utilizado por los ingenieros de sonido.

Inició una carrera en equipos electrónicos de prueba y ensayo para laboratorios. Más tarde, en 1968 entraron en el negocio de las calculadoras electrónicas con gran éxito.

Tipos de Hardware que fabrica HP

  • Notebooks
  • Impresoras y Multifuncionales
  • Desktops
  • Workstations
  • Servidores
  • Almacenamiento
  • Smartphones y PDAs
  • Monitores
  • Tintas, toners y papeles
  • Accesorios
  • Escáneres y faxes
  • Calculadoras

Tipos de software que fabrica HP

  • Java
  • Sistemas OpenVMS
  • Tru64 Unix
  • Clústeres para computación técnica de alto rendimiento
  • Directorio y Mensajería para Sistemas OpenVMS
  • Soluciones de telecomunicaciones
  • Software de sistemas comerciales / por capas OpenVMS
  • Administración de servicios para Web
  • Software de base de datos NonStop
  • Tru64 - Entorno Computacional Distribuido
  • Tecnología CORBA NonStop

TOSHIBA

diciembre7

Historia

En 1876 Hisashige Tanaka inició un negocio de fabricación de partes para telégrafos con el nombre de Tanaka Seizo-sho.

En 1904, la compañía del señor Tanaka, rebautizada como Shibaura Seisaku-sho, era líder en la fabricación de aparatos eléctricos

Finalmente en 1939 ambas empresas se unen para formar Tokio Shibaura Denki (Compañía eléctrica de Tokio) pero la gente pronto comenzó a llamarla To-Shiba, hasta que en 1978 adoptó el nombre Toshiba formalmente.

Toshiba  es una compañía japonesa dedicada a la manufactura de aparatos eléctricos y electrónicos cuya sede está en Tokio.

Ocupa el 7º puesto en la lista de grandes compañías mundiales de su campo.

En la actualidad Toshiba ocupa el 5º puesto a nivel mundial en ventas de Laptops, con el 5.2% de las ventas mundiales.

Durante el año comercial 2000-01 la empresa facturó por 5.951.357 millones de yenes y obtuvo un beneficio neto de 96.168.000.000 ¥. Trabajan para Toshiba 188.042 empleados (2001).

El grupo se expandió con fuerza, tanto por el crecimiento interno como por adquisiciones, absorbiendo compañías de ingeniería e industria primaria en los años 1940 y 1950, dando lugar a empresas subsidiarias a partir de los 1970s como Toshiba EMI (1960), Toshiba Electrical Equipment (Equipos eléctricos Toshiba) (1974), Toshiba Chemical (Química de Toshiba) (1974), Toshiba Lighting and Technology (Iluminación y Tecnología Toshiba) (1989) y la Toshiba Carrier Corporation (Corporación de Transportes Toshiba) (1999).

La empresa fue responsable de algunas primicias japonesas, como el radar (1942), la TAC (1954), televisor de transistores y horno microondas (1959), videófono en color (1971), el vocablo en japonés procesador (1978), el sistema MRI (1982), computadora portátil (1986), NAND EEPROM (1991), DVD (1995), y el Libretto (1996).

Inventos destacados

Toshiba fue la compañía inventora de la unidad DVD.

Toshiba fue la primera compañía en desarrollar y sacar al mercado la primera computadora portátil del mundo.

Toshiba fue el primero en vender un disco de grabación perpendicular de 1,8 pulgadas (4,5 cm) capaz de almacenar 80 GB.

Diciembre de 2006: informa de la disponibilidad de un disco de grabación perpendicular con 2 platos.

Desarrolló junto con Microsoft y NEC el HD DVD (DVD de alta definición).

Fue la primera compañía en desarrollar el reactor nuclear.

INTEL VS. AMD

diciembre7

INTEL como sabemos es el líder en el mercado con mas de 3 décadas en el mercado, en comparación de AMD que tan solo lleva una década en la producción de microprocesadores.

La lucha de INTEL y AMD, por acaparar el mercado es muy competitiva. Ambas empresas implementan casi las mismas tecnologías, cuando alguna de las dos empresas lanza al mercado una nueva tecnología en procesadores, la otra casi inmediatamente lanza su propia versión.

INTEL como sabemos es el líder en el mercado con mas de 3 décadas en el mercado, en comparación de AMD que tan solo lleva una década en la producción de microprocesadores.

La lucha de INTEL y AMD, por acaparar el mercado es muy competitiva. Ambas empresas implementan casi las mismas tecnologías, cuando alguna de las dos empresas lanza al mercado una nueva tecnología en procesadores, la

otra casi inmediatamente lanza su propia versión.

AMD vs Intel Comparación del procesador gráfico de 2010

Conclusión

Si se busca VELOCIDAD no hay duda que AMD es la

mejor opción, si necesitamos ESTABILIDAD INTEL.

Si necesitamos una computadora para programas de

oficina no importa cual escogemos, pero si la usamos

para edicion de videos y juegos  AMD es la buena

opción.

Para arquitectura y muchos cálculos matemáticas

INTEL es buena opción.

EL QUE LLEVA LA DELANTERA EN TECNOLOGIA

ES AMD, PERO INTEL EN LUGAR DE

EXPERIMENTAR SOLO VA POR LO SEGURO Y CON BUENOS RESULTADOS

SAMSUNG

diciembre7

Fundada en 1969, en Daegu, Corea del Sur,es el miembro más grande del Grupo Samsung, que es a la vez una de las compañías de aparatos eléctricos más importantes alrededor del mundo.Los comienzos de Samsung se dieron en los años 1938-1969. Trabajaron en la diversificación en campos de la industria y productos electrónicos durante 1970 a 1979 intentando ingresar al campo global de tecnología.

Opera en alrededor de 58 países y tiene más de 208.000 empleados. Sus ventas en el año 2003 fueron de alrededor de 101.700 millones de dólares (unos 86.200 millones de Euros).

Es reconocida por ser una de las 10 mayores marcas de fabricantes en el mundo; es específicamente la segunda mayor productora del mundo, teniendo el primer lugar, la también coreana Hyundai

Samsung ve cada reto como una oportunidad, y creen que están en una posición perfecta como uno de los líderes mundiales más reconocidos en la industria de la tecnología digital.
El compromiso de ellos es ser los mejores del mundo, eso ha significado el 1er lugar de participación mundial de mercado para 13 de sus productos, entre los que se incluyen semiconductores, LCD TFT, monitores y teléfonos móviles CDMA.

Productos

El televisor más delgado del mundo (6,5 mm).

Desarrolla la primera DRAM en el mundo de 40 nanómetros.

Anuncia el teléfono de energía solar “Blue Earth”.

Lanza el televisor LCD Crystal Rose V-line.

Samsung Digital Imaging desarrolla una innovadora cámara digital híbrida

Futuros proyectos

Samsung está dando pasos históricos en la investigación y el desarrollo de su línea general de:

Semiconductores.

Memorias flash.

Semiconductores personalizados.

DRAM y SRAM.

Los mejores LCD.

Teléfonos móviles, aparatos digitales y más.

Principales directivos

Hong Jun Lee (Presidente)

Oh- Hyun Kwon(Presidente de la unidad de Semiconductores)

Yoon-Woo Lee(Vicepresidente)

Dr. Chang- Gyu Hwang (Presidente de la unidad de Semiconductores )

Hyung-kyu Lim (Dirige el Instituto de Tecnología Avanzada )

Ki -Tae Lee(Relaciones Exteriores )

SONY

diciembre6

Historia de sony

Las raíces de Sony se plantaron en una bombardeada Departamento de la tienda en Tokio en 1946.  Masaru Ibuka, ingeniero, y Akio Morita, físico, invirtieron el equivalente de £ 845.00 para iniciar una empresa con 20 empleados de la reparación de aparatos eléctricos y el intento de construir sus propios productos.

La historia de éxito realmente comenzó cuando Tokio Tsuchin Kogyo, ya que la empresa fue nombrado, obtuvo una licencia en 1954 para hacer transistores.  El transistor fue inventado en Estados Unidos pero no se había aplicado a las radios, que fueron expulsados los aparatos de la válvula.  Sony hizo por primera vez de transistores de Japón en mayo de 1954 y el todo-radio de transistores en primer lugar.
Sin embargo, su primer gran éxito se hizo esperar hasta el año 1.977, cuando se comercializó el primer walkman, un sistema estéreo portátil de auriculares, y más tarde el watchman, una televisión tan pequeña que puede llevarse en un reloj de pulsera. El Betamax de Sony, con el formato de cintas de vídeo Beta, fue el primer sistema de grabación de vídeo doméstico del mercado, pero fue reemplazado por el formato de cinta de vídeo VHS, comercializado por Radio Corporation of America (RCA). El formato VHS se ha convertido en el sistema estándar dentro de la industria de las cintas de vídeo. No obstante, el sistema Betacam de Sony es en la actualidad el sistema estándar en el equipamiento profesional y de las emisoras de televisión. Desde entonces, Sony ha llevado al campo de la invención y la innovación - con la primera televisión en color Trinitron en 1968, el vídeo en color-cassette en 1971, el VCR Betamax, que era el mundo de la casa del primer uso del sistema de vídeo en 1975, el Walkman en 1979, el 3,5 pulgadas de disco micro en 1989, una cámara fotográfica electrónica en 1981, el primer CD del Jugador Mundial de la en 1982, la videocámara de consumo por primera vez en 1983, de 8 mm de vídeo en 1988, el digital de VTR por primera vez en 1985 y así sucesivamente y así sucesivamente hasta 1995, con el lanzamiento de PlayStation.
La filosofía de Morita impera aún en la compañía. La innovación, fomentada activamente por Sony entre sus empleados, es uno de los principios básicos de esta filosofía. Los ingenieros de diseño disponen del presupuesto y el tiempo requeridos para innovar los productos y experimentar con nuevas técnicas. La compañía mantiene un concurso anual en el cual los ingenieros exponen sus prototipos. Se conceden premios a aquellos que son seleccionados para su posible fabricación y puesta en venta. Sony produce continuamente nuevos productos que, en su mayoría, se ponen a prueba en el mercado japonés. La compañía ha obtenido un gran éxito fuera de sus fronteras, especialmente en el mundo occidental, pero ha sido sobrepasada en Japón y en otros lugares por la gigante Matsushita.
Con la adquisición de CBS Records Inc. en 1988 y de Columbia Pictures Entertainment Inc. en 1989, Sony se convirtió en una importante potencia dentro de la discografía, el cine y la televisión. Sony es además una compañía muy activa en el terreno de la informática, con productos para el procesamiento y almacenamiento de información, y en las telecomunicaciones, con contestadores automáticos, teléfonos inalámbricos domésticos y teléfonos celulares móviles.
En los 45 años desde que la compañía inició sus operaciones ha crecido de 20 empleados a más de 100 000 personas en todo el mundo.  Akio Morita, reconocido desde el principio que su empresa necesita para lo que se refiere al mundo entero como su mercado y no para restringir las actividades a Japón solo.
También insistió en que el nombre de Sony ocupar un lugar destacado en todos los productos de la compañía.  La compañía se convirtió rápidamente en una fuerza internacional.  Sony Corporation of America fue fundada en 1960, Sony UK Limited fue fundada en 1968.  Una vez que los productos se vendían en un país que tiene sentido comenzar a fabricarlos localmente.  La fábrica fue establecida en San Diego en 1972, seguida por la fábrica en Bridgend al servicio del Reino Unido y Europa en 1974.  Akio Morita estaba decidido a mantener el espíritu de empresa y la innovación y evitar la compañía de convertirse en una entidad enorme y burocrática.  Su filosofía se puede describir como "localización global".

Las operaciones se centran en grupos de pequeñas empresas que actúan como empresas auto-suficientes diseño y desarrollo de productos que están "vendidos" en el grupo más grande.  Las funciones corporativas de Investigación, Planificación Estratégica, así como la publicidad y las actividades de marketing se unen a la diversidad de las empresas en conjunto.
En enero de 1988 Sony adquirió CBS Records Inc. para formar Sony Music Entertainment, y en 1989 Sony compró Columbia Pictures, para formar Sony Pictures Entertainment.
El lanzamiento de PlayStation fue la culminación de un plan a largo plazo para tomar una ventaja en el floreciente mercado de los videojuegos.  En 1988, Sony había llegado a un acuerdo con Nintendo para desarrollar una unidad de CD-ROM de 16 bits para el Super Famicom, una consola que se debía en el mercado en 18 meses.
La tecnología que fue el responsable de esta operación fue de Sony y Philips CD-ROM/XA, una extensión del formato CD-ROM que combina comprimido, visuales y el ordenador los datos de audio, permitiendo que todos los que se accede al mismo tiempo con la ayuda de hardware adicional.  Sony también tenía planes para desarrollar otro dispositivo de la máquina de Nintendo, una figura del sistema de entretenimiento-yo que sería de los dos cartuchos de SFC y un formato nuevo CD diseñado y únicamente con licencia de Sony.  Llamado SuperDisc este formato propietario también constituyen la base del propio CD-ROM de Nintendo - PlayStation nació!
Sony había reconocido a tiempo el potencial de crear un nuevo tipo de videojuego en CD-ROM a través de sus recursos de entretenimiento en gran Sony Music y Sony Pictures.  Como la PlayStation comenzó a tomar forma, Nintendo sentía cada vez más marginados y menos relevante para los planes de Sony.  Nintendo considera que el éxito de Sony podría poner en peligro su supervivencia y para sorpresa y disgusto de Sony anunció en 1991 que había llegado a un acuerdo con Philips para desarrollar un-ROM plataforma de CD de Super Nintendo. Después de disputas legales tanto de Nintendo logró librarse de la contrato previamente firmado con Sony, pero el desarrollo de PlayStation continúa en la base de que un acuerdo sobre la concesión de licencias de CD de software de Nintendo se alcanzaría.
A finales de 1992, Sony, Nintendo y Philips firmaron un acuerdo por el que PlayStation sería capaz de ejecutar SNES CD-ROM, pero dejó de Nintendo con los derechos exclusivos para todos sus juegos.  La versión de PlayStation se están desarrollando en ese momento nunca lo hizo en la producción.
Pero, después de haber llegado tan lejos Sony no estaban a punto de abandonar la idea por completo y los ingenieros y diseñadores volvieron a sus mesas de dibujo y comenzó de nuevo.  Cuando el PS-X apareció en 1993 tomó los expertos de la industria por la tormenta.  Sony había creado su propia máquina de juegos de pura sangre y avanzado más allá de los formatos existentes.  Sony ya había aprendido la lección de que, además del mejor hardware que necesita el apoyo y el reconocimiento de los mejores desarrolladores de software.  La compañía reclutó a los mejores y se aseguró de que compañías como Konami y Namco han participado desde los primeros días.  Sony sabía que sería un buen paso para usar PlayStation como un caldo de cultivo para los productos de Arcade.
Sony ha gastado más de £ 300 millones de PlayStation en desarrollo y la inversión ha valido la pena.  En agosto de 1998 más de 40 millones de unidades habían sido enviados en todo el mundo.

Mercados en los que ha incursionado

Audio personal
Un ejemplo evidente de concepto exitoso fue walkman, un reproductor de audio estéreo portátil lanzado al mercado por primera vez en 1979 y del que Sony ha vendido millones de unidades, En sus comienzos permitía obtener una calidad de sonido similar a la de un equipo casero, sin ser tan voluminoso. La amplia difusión del walkman también cambió radicalmente el negocio de los tocadiscos y le dio el primer golpe al disco de vinilo, ya que el casete era más fácil de reproducir y más económico. El walkman es todo un símbolo de los años 80.
Posteriormente la marca Walkman fue extendida a sus reproductores de discos compactos (CD), de discos compactos en formato Atrac y de audio digital comprimido, así como a los teléfonos móviles multimedia de Sony Ericsson.
Contenidos Audiovisuales

En enero de 1988 Sony adquirió CBS Records para dar origen a Sony Music Entertainment y en 1989 Sony compró Columbia Pictures y creó Sony Pictures. Sony aprendió de la derrota con Betamax que para dominar en la guerra de los formatos había que convertirse en el estándar de la industria.

Fotografía
Sony produce su propia línea de cámaras digitales desde 1996 bajo la marca Cyber-shot. Su primer modelo fue el DSC-F1, una compacta de 0.31 megapíxeles. En 2006 Sony amplió su rango de productos con el lanzamiento de su primera cámara digital réflex, la Sony Alpha 100 DSLR, y del primer móvil Sony Ericsson con la insignia Cyber-Shot, el la serie K.
Para el desarrollo de su nueva línea Alpha, Sony adquirió la división de fabricación de cámaras de Konica Minolta.
Informática

Sony hizo su aparición en el mundo de la informática en 1982 con un computador personal de 8 bits denominado SMC-70, al que seguirían el SMC-777 (destinado al usuario novell) y el NWS-830 (una estación de trabajo para desarrolladores), entre otros.
En 1996 ve la luz el primer de la marca VAIO,[4] la nueva línea de computadores personales de Sony, y que actualmente abarca tanto ordenadores de sobremesa como portátiles.
Telefonía

Tras crear una empresa de riesgo compartido con Ericsson Mobile Comunications, de Suecia, en 2003, Sony y Ericsson dan lugar a su propia marca de teléfonos celulares, Sony Ericsson, con muy buen éxito a nivel mundial.
Televisión

Sony comercializa la marca de televisores Sony Bravia. Sony posee la licencia de 4 canales de televisión por cable y satélite, disponibles en todo el mundo:
Sony Entertainment Television, dedicado a las series de televisión estadounidenses únicamente en España, Latinoamérica y la India.
AXN (cuyas siglas significan Action eXtreme Network, es decir, Canal de Acción Extrema), dedicado a las películas , series de acción y aventura.
E! Entertainment Television, dedicado al mundo de la moda y el espectáculo.
Animax, dedicado a las series y dibujos animados del tipo anime, durante las 24 horas únicamente en Latinoamérica, Alemania, Europa del Este y Asia. Recientemente ha llegado a España en ofertas de televisión de pago.
Videojuegos

Sony lanzó su primera consola de videojuegos, la PlayStation (PSX), en 1994. Se considera la videoconsola más exitosa de la quinta generación tanto en ventas como en popularidad. En el año 2000, coincidiendo con el lanzamiento de la nueva Playstation 2, Sony decidió alargar la vida de la PSX reduciendo su tamaño y mejorando algunos de sus componentes. Este nuevo modelo, PSOne, estaba destinado a ofrecer alternativa más asequible a la PS2 (que tendría un precio más elevado) y las N64 y Dreamcast de la competencia.
La PlayStation 2 está considerada hasta la fecha como la videoconsola más exitosa de todos los tiempos, con unos 141 millones de unidades vendidas. En vista del éxito, Sony decidió extender su marca al mercado de las consolas portátiles, lanzando en 2005 la PlayStation Portable (PSP). Más recientemente, en 2006, lanzó la PlayStation 3.

Exitos comerciales

Los aportes de Sony al mundo de la electrónica han sido relevantes. En 1950 se presentaba la primera grabadora de sonido en Japón, cuatro años más tarde fabrica el primer transistor japonés y al año siguiente, en 1955 desarrolla el primer radio de transistores del mundo, el TR-55 que presenta en Japón, dos años después presenta el TR-63 y el TR-62 a nivel mundial. Con ellos es que se introduce en el mercado de EE. UU. Ya el año anterior había presentado el TR-55 en Japón. La tecnología de estado sólido, que sirvió a Sony para darse a conocer en el mundo con su radio a transistores, fue adquirida por la compañía mediante una licencia comprada a los laboratorios Bell por Morita, los laboratorios Bell no utilizaban la tecnología de estado sólido al estimar que no iba a haber ningún cambio en los consumidores que utilizaban la tecnología anterior.
En 1958 sigue innovando en la radio transistorizada presentando el receptor más pequeño en aquel momento en el mundo y el primer receptor a transistores de dos bandas.
En 1960 desarrollo el 8-301, el primer receptor de televisión transistorizado y seguidamente, en 1961, la primera grabadora de vídeo transistorizada, la SV-201. Al año siguiente esos productos serían de menor tamaño.
En 1965 se presenta la primera grabadora de vídeo doméstica, la CV-2000 y un micrófono de condensador transistorizado.
En 1967 aparece el primer receptor de radio que incorpora circuitos integrados y una grabadora de vídeo portátil, la DV-2400.
En 1968 presenta el primer televisor en color Trinitron (marca y tecnología que mantendrá hasta la desaparición de los monitores y receptores de TV de tubo de Rayos Catódicos a pricipios del siglo XXI). Al siguiente la NASA selecciona el casete TC-50 de Sony para equipar el Apolo X.
En 1969 Sony desarrolla en magnetoscopio U-matic que está llamado a ser el formato de grabación de vídeo para ENG sustituyendo a los formatos de pulgada "C" y "B" de Ampex y Bosch. Dos años después presentaría el U-matic en color.
En 1972 desarrolla y presenta el primer proyector de vídeo para pantallas de gran formato y en 1975 surge el Betamax, con el modelo SL-6300, fue un concepto de Ibuka, que se convirtió en un éxito, pero que paulatinamente perdió su dominio del mercado a manos del formato VHS, liderado por JVC. Esta situación se debió a la negativa de Sony de compartir el uso de su formato con otras compañías, razón por la cual, la mayoría de fabricantes adoptaron el formato VHS.
En 1977 aparece el primer procesador de audio digital PCM-1 y en 1979 presenta el primer Walkman del mundo , el TPS-12.
En 1980 desarrolla y presenta, junto a Philips el nuevo formato de grabación de audio digital, el CD. Ese mismo año lanza el primer camcorder, cámara y grabadora integrados, destinado al mercado doméstico.
En 1982 desarrolla el sistema Betacam partiendo del U-matic. El nuevo sistema, que graba por componentes en cintas de media pulgada idénticas a las utilizadas por el formato doméstico Betamax se desarrollaría posteriormente dando lugar al Betacam SP que apareció en 1988 y sería el formato estándar de TV brodcast hasta la desaparición de la grabación en cinta en la primera década del siglo XXI. Este formato se evolucionaría     al Betacam digital y soportaría todos los formatos intermedios que tanto Sony como otras empresas del sector intentaron introducir para sustituirlo.

En 2008 el formato Blu-ray desarrollado por Sony, se impone sobre el formato HD DVD que trató de imponer la empresa Toshiba. Gran parte de su éxito se debió a su incorporación en el sistema Playstation 3, producto estrella de Sony que actualmente pelea por imponerse tras sus exitosos PlayStation 2 y PlayStation.
En 2010 salio al mercado la Sony Bravia 3D, la cual, ha tenido mucho éxito.

Sony, en los últimos años, centró su atención en establecer una posición de liderazgo en el mercado de software de haber conquistado la escena de hardware. Después de haber revolucionado la forma en que la gente escucha música o ver fotos y Sony quería establecer una presencia en la producción de productos de software que se puede escuchar en el Sony hardware. Sony ha sido una empresa que ha tenido muchas invenciones, invenciones que no nos imaginariamos antes pero que despues de creadas no nos imaginamos que hubiera sido del mundo sin ellas tales como el playstation, el walkman, diskman, el Disco Floppy, el repdrocutor e Cds, handycam, blue-ray etc, pioneros  que crearon nuevos productos y nuevos mercados. Aqui hay una linea de tiempo con los productos mas destacados de la compañía  y que literalmente cambiaron el mundo.

Bibliografía

http://mediosfera.wordpress.com/2010/10/07/make-believe-sony-corporation/

http://tecnolatino.com/

http://cache.gawker.com/assets/images/gizmodo/2009/05/Sony-Timeline-HD2.jpg

http://www.sony.es/section/home

http://www.gizmos.es/30392/ordenadores/vaio-j-un-nuevo-pc-con-pantalla-tactil-de-sony/

http://www.tipete.com/userpost/topics/el-primer-televisor-transistores-del-mundo-sony-1960

http://www.3djuegos.com/foros/tema/772379/0/la-historia-de-psp/

Microsoft

diciembre6

Es una empresa multinacional de origen estadounidense, fundada en 1975 por BILL GATES y PAUL ALLEN. Dedicada al sector de la informática, con sede en REDMOND, WASHINGTON yESTADOS UNIDOS.

Microsoft desarrolla, fabrica, licencia y produce

software y equipos electrónicos. Siendo sus productos más usados el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales tienen una importante posición entre los ordenadores personales.

Con una cuota de mercado cercana al 90% para Office  en 2003 y para Windows en el 2006.  Tiene 93.000 empleados en 102 países diferentes y contó con unos ingresos de 51.120 millones de dólares durante el año 2007.

En 1975 Gates dejó la universidad Harvard, trasladándose a Albuquerque, Nuevo México donde el MITS estaba establecido, y fundó, junto a Paul Allen, Microsoft. Luego de tres años se abrió la primera oficina internacional de la compañía en Japón, bajo el nombre de "ASCII Microsoft" (actualmente conocida como Microsoft Japón). Un año más tarde Microsoft se trasladó a Bellevue, en Washington. En 1980 Steve Ballmer se une a la compañía.

El primer sistema operativo que la compañía lanzó al público fue una variante de Unix en el año 1979. Adquirido de AT&T a través de una licencia de distribución, Microsoft le apodó Xenix, y alquiló la empresa Santa Cruz Operation para adaptar su sistema operativo a importantes plataformas. Xenix fue cedido a Santa Cruz Operation, que adaptó el sistema para microprocesadores 80286 en 1985, bajo el nombre de SCO UNIX.

DOS (Disk Operative System, Sistema operativo de disco en inglés)

Fue el sistema operativo que llevó a la compañía a su primer éxito. En agosto de 1981, después de unas negociaciones fracasadas con Digital Research, IBM acordó con Microsoft proveer de una versión de un sistema operativo CP/M, el cual fuera pensado para el PC de IBM.

Por un marketing agresivo de MS-DOS hacia los fabricantes de clones del IBM-PC, Microsoft se elevó desde un pequeño competidor hasta llegar a ser uno de los principales oferentes de software para ordenadores personales. de la industria. La compañía se expandió hacia nuevos mercados con el lanzamiento del Ratón de Microsoft en 1983 producto que no fue fabricado originalmente por ellos, también destacar la creación de una división llamada Microsoft Press.

En agosto de 1985 Microsoft e IBM colaboraron en el desarrollo de una familia de sistemas operativos diferentes llamados OS/2. En noviembre del mismo año Microsoft lanzó la primera versión para minoristas de su sistema operativo Microsoft Windows. En Marzo de 1987 Microsoft lanzó su primera versión de OS/2.

Luego de dos años en el mes de julio Microsoft introdujo su principal suite ofimática, Microsoft Office, un paquete de aplicaciones ofimáticas separadas, como Microsoft Word y Microsoft Excel. Para el año siguiente salió al mercado Windows 3.0, la nueva versión del sistema operativo. En 1993 Microsoft publicó Windows NT 3.1, un sistema operativo de negocios con la interfaz de Windows 3.1.

Luego de dos años Microsoft puso en venta Windows 95, una nueva versión del sistema operativo insignia de la compañía con una interfaz de usuario completamente nueva, entre sus novedades se destacan el nuevo Menú Inicio, un explorador de archivos mejorado, compatibilidad del Hardware Plug-and-Play y soporte mejorado para multimedia y juegos. La nueva versión de Windows permitirá además nombres largos de archivos y la multitarea prioritaria de 32 bits, que permite usar a la vez varios programas. En los 4 primeros días, se vendieron 1 millón de copias de Microsoft Windows 95. En este mismo año, salió al mercado Internet Explorer que venía incluido junto al paquete Windows 95 Plus! (o Windows Plus!), una nueva versión de Windows 95.

En 1997  Internet Explorer 4.0 fue publicado para Mac OS y Windows. Ya para el año 1998 Windows 98 salió a la venta, la nueva versión de Windows era una actualización de Windows 95 que incorporaba nuevas características centradas en Internet y que era compatible con los nuevos tipos de dispositivos.


Un año después, en 1999 Windows 98 SE, este nuevo sistema no era una actualización de Windows 98, sino un producto nuevo.

En el 2000 nace Windows 2000, entre sus novedades, destaca el Active. Windows ME sería el sustituto de Windows 98, sus principales novedades era la inclusión de la opción Restaurar Sistema, que permite devolver la configuración del equipo a un estado previo así como mejoras en cuanto a Internet .

El  25 de octubre del 2001, Microsoft estrena Windows XP. La primera versión de Windows que combina características tanto de su línea para ordenadores caseros como para los negocios. XP; abreviatura de "eXPerience".

Tras numerosos retrasos, el 29 de enero del 2007 la compañía lanza oficialmente Windows Vista. Se sacaron al mercado 6 ediciones diferentes: Home Basic-Home Premium, Business-Enterprise, Starter, y Ultimate.

Home Basic: Pensada para hogares y usuarios con necesidades básicas.

Home Premium: Pensada para hogares, trae una nueva interfaz, Windows Aero, con efectos visuales mejorados y un escritorio 3D con la utilidad Windows Flip 3D, nuevas tecnologías de diagnostico y mejora del rendimiento del sistema.

Bussiness: Pensado para pequeñas empresas.

Ultimate: Combina las características de la edición Home Premium y la edición Bussiness.

Enterprise: Ideada para grandes empresas que operen en redes globales, incluye una mayor compatibilidad con aplicaciones y diferentes idiomas.

Starter: Pensado para usuarios principiante, es la edición menos completa de todas y la más simple.

Junto con Windows Vista, salió a la venta la nueva versión de la suite ofimática de la compañía, Microsoft Office 2007. Entre sus novedades está la interfaz Ribbon, que sustituye las barras de herramientas y menús por pestañas.

Windows 7

(anteriormente conocido con nombre código Blackcomb, y luego Vienna) es la versión de Windows sucesora de Windows Vista, un sistema operativo producido por Microsoft Corporation para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, Notebooks, tablet PC, netbooks y equipos media center.

Beneficio de explotación $24.098 millones US$ (2010).

Beneficio neto $18.760 millones US$ (2010).

Activos $86.113 millones US$ (2010)

Capital social $46.175 millones US$ (2010)

Empleados 93.000 en 100 ciudades (2009)

Bibliografía

http://www.microsoft.com/es/mx/default.aspx

http://es.wikipedia.org/wiki/Microsoft

http://www.monografias.com/trabajos13/quienbill/quienbill.shtml

http://www.maestrosdelweb.com/editorial/microsoft/

IBM

diciembre5
Creada un15 de junio de 1911 en Binghamton (Estados Unidos). Fabricaban desde sistemas para el control de empleados hasta equipos automatizados para el corte de carne y  equipos para la gestión de tarjetas perforadas. Durante la Segunda Guerra Mundial empezó a investigar en el campo de la informática.
  • Empresa orientada a las ventas
  • Influenciada por el movimiento de código abierto
  • IBM lidera el ranking mundial
  • "Exaescala” para un planeta más inteligente
  • Líderes en todo el mundo

Datos  destacados

En 1953, IBM creó el IBM 701, el primer gran computador.  RAMAC, y el FORTRAN fueron creados por IBM en 1957. El 7 de abril de 1964, IBM lanzó el System/360.
En 1981, IBM creó el IBM PC (el sistema operativo no era de IBM). El 19 de enero de 1993, IBM anuncio pérdidas de 8.000 millones de dólares. Para el 10 de diciembre de 2004, IBM terminó negociaciones  para vender su división de PC al grupo chino Lenovo .

PRODUCTOS:
  • Software
  • Sistemas de almacenamiento (en cinta o en disco)
  • Sistemas de servidores
  • Sistemas de seguridad de internet

SERVICIOS:

  • Servicios de TI
  • Consultoría de negocios
  • Servicios de aplicaciones
  • Servicios de outsourcing
  • Servicios para software
  • Estudios ejecutivos
GERENTES:
Thomas John Watson, 1914 - 1956Thomas J. Watson Jr., 1956 - 1971T. Vincent Learson, 1971 - 1973Frank T. Cary, 1973 - 1981John R. Opel, 1981 - 1985John F. Akers, 1985 - 1993Louis V. Gerstner, Jr., 1993 - 2002
Samuel J. Palmisano, 2002



BIBLIOGRAFÍA:

www.wikipedia.com

www.ibm.com

www.intermec.com

www.bolsamania.com

« Older EntriesNewer Entries »