7 jun 2012

Correo Electronico

El correo electrónico (también conocido como e-mail, un término inglés derivado de electronic mail) es un servicio que permite el intercambio de mensajes a través de sistemas de comunicación electrónicos. El concepto se utiliza principalmente para denominar al sistema que brinda este servicio vía Internet mediante el protocolo SMTP (Simple Mail Transfer Protocol) , pero también permite nombrar a otros sistemas similares que utilicen distintas tecnologías. Los mensajes de correo electrónico posibilitan el envío, además de texto, de cualquier tipo de documento digital (imágenes, videos, audios, etc.). El funcionamiento del correo electrónico es similar al del correo postal. Ambos permiten enviar y recibir mensajes, que llegan a destino gracias a la existencia de una dirección. El correo electrónico también tiene sus propios buzones: son los servidores que guardan temporalmente los mensajes hasta que el destinatario los revisa. El estadounidense Ray Tomlinson fue quien incorporó el arroba (@) a las direcciones de correo electrónico, con la intención de separar el nombre del usuario y el servidor en el que se aloja la casilla de correo. La explicación es sencilla: @, en inglés, se pronuncia at y significa “en”. Por ejemplo: carlos@servidor.com se lee carlos at servidor.com (o sea, carlos en servidor.com). El servicio de correo electrónico se ofrece bajo dos modalidades: el conocido como correo web o webmail , donde los mensajes se envían y reciben a través de una página web diseñada especialmente para ello; y el servicio mediante un cliente de correo electrónico , que es un programa que permite gestionar los mensajes recibidos y redactar nuevos.

Servidores de correo electronico.

ServerSupported interfacesDomains
AOL  / AIM IMAP/POP3@aol.com; @aim.com
Excite -@excite.com
FastMail IMAP@fastmail.fm; many other domains available
Gmail -@gmail.com
GMail support via WebMail or POP3/Imap/SSL (GMail FAQ)
Hotmail / MSN / Live Hotmail All known interfaces@hotmail.com; @msn.con; @sympatico.ca; @verizon.net; @hotmail.* (@hotmail.co.uk; @hotmail.co.jp; @hotmail.co.th; @hotmail.de; @hotmail.fr; @hotmail.it; ; @hotmail.com.ar;@hotmail.com.tr); @live.* (@live.com; @live.co.uk, etc)
iWon -@iwon.com
Juno -@juno.com
Lycos.com -@lycos.com
Mail.com IMAP/POP3@mail.com; @email.com; @iname.com; @usa.com; @operamail.com
Hundreds of other domains
MyWay -@myway.com
NetZero -@netzero.com; @netzero.net
RediffMail Classic and New@rediffmail.com
Yahoo Classic, new, beta@yahoo.com; @ymail.com; @rocketmail.com; @yahoo.ca; @yahoo.co.in; @yahoo.co.kr; @yahoo.co.uk; @yahoo.com.ar; @yahoo.com.au; @yahoo.com.br; @yahoo.com.hk; @yahoo.com.mx; @yahoo.com.sg; @yahoo.de; @yahoo.dk; @yahoo.es; @yahoo.fr; @yahoo.gr; @yahoo.it; @yahoo.no; @yahoo.se

24 may 2012

Navegadores Web o Browsers


El nombre oficial de los browsers de Web es programa cliente de Web. El ordenador al que nos conectamos es un servidor de Web. Estos nombres tienen sentido cuando se observa el hecho de que Web es una red de ordenadores de bases de datos basada en clientes y servidores. Conjuntamente, el cliente y el servidor hacen posible la transferencia de información entre dos puntos de la red. Existen numerosos browsers de Web algunos de los cuales son de libre distribución y otros no. De alguna forma Internet debe su existencia, y en gran parte su éxito, al trabajo de programadores y diseñadores que crearon programas que la convierten en un servicio fácil de utilizar y, en muchas ocasiones, gratuito. La mayoría de los diseñadores crean sus propios programas y, posteriormente, los distribuyen gratuitamente. Cualquier usuario podrá obtenerlos sin más que importarlos utilizando el servicio ftp.

Por supuesto, si proporciona servicios a un gran número de usuarios pero pierde algunas de las características que la hicieron popular (inexistencia de regulación gubernamental, acceso gratuito a la información, etcétera...) puede que deje de considerarla como un éxito.



1. Mozilla Firefox
www.mozilla-europe.org/es/firefox
 Firefox 7 


Firefox 5 
  
Firefox 3.5 (viejo) 

Navegador libre multiplataforma muy usado. Es de los más seguros que existen, está optimizado para cargar las páginas lo más rápido posible, respeta los estándares web, usa navegación por pestañas, permite instalar miles de plugins facilmente y de forma automática, soporta complementos de todo tipo, es muy personalizable, soporta temas (carcasas), tiene protecciónanti-pishing y contra páginas fraudulentas, está integrado con Prism, gestor de descargas, lectorRSS, etc...


Firefox es el más usado principalmente por dos cosas: Está optimizado para hacer una navegación lo más cómoda posible y sus complementos le añaden miles de funcionalidades capaces de hacer cualquier cosa.



2. Google Chrome / Chromium
www.google.com/chrome
El navegador libre y multiplataforma de Google. Ofrece al usuario una manera agradable de navegar, con soporte para pestañas, etiquetas, complementos, favoritos, seguridad avanzada, privacidad y características pensadas para evitar los típicos cuelgues y pérdidas de información que tanto nos incomodan.

La diferencia entre Chromium y Chrome es que el primero es software libre, mientras que el segundo está basado en el primero pero incluye partes de código propietario. Aun con todo ambos son gratuitos.



3. Opera
www.opera.com
 
Opera (versión 11)

Opera (versión 10)

Opera es un navegador gratuito aunque no es software libre. Es muy configurable, rápido y cómodo. Para bastante gente es de los mejores navegadores existentes y tiene todo lo que puedas necesitar: Lector de feeds - RSS, carcasas, widgets, gestor de descargas, navegación por pestañas, ventana de inicio con accesos rápidos, zoom, función turbo, sincronización entre ordenadores y muchas cosas más.

Entre los rasgos distintivos de Opera siempre ha estado ofrecer funcionalidades innovadoras, como es el caso de Opera Unite, las pestañas con previsualización y muchas otras curiosidades dignas de ser probadas.


4. Midori
www.twotoasts.de/index.php?/pages/midori_summary.html

Un navegador sencillo y rápido para los amantes de la simplicidad. Incluye todo lo esencial que debe tener un navegador, es muy rápido y sencillo de usar.



El navegador predeterminado del escritorio Gnome, aunque no lo usa mucha gente. Es un navegador sencillo y simple que no gasta muchos recursos del sistema.



6. Konquerorwww.konqueror.orgEl navegador predeterminado del escritorio KDE, bastante conocido, elegante y con todas las funciones propias de este escritorio. Incluye navegación por pestañas, gestor de descargas, muchas opciones de configuración y usa el mismo motor que Safari.



Navegador que conserva la carcasa y las funcionalidades del antiguo Netscape . Ideal paramelancólicos aunque bastante desfasado respecto al resto de navegadores actuales.


8. Netscape
http://browser.netscape.com
Este mítico navegador ya ha dejado de existir para dejar paso a Firefox. En su web aun te puedes descargar el programa desde la última versión, Netscape Navigator 9, hasta la versión 4, que es idéntica a SeaMonkey pero sin actualizar.


9. Flock (desfasado)
http://flock.com
A partir de Firefox han creado este navegador ideal para los que quieran sacar todo el jugo a la web: incliye caracteristicas para compartir imagenes, acceder a tus cuentas, redes online, blogs... Flockestá pensado para ser el navegador de los adictos a la red.


10. Internet Explorer en Linux
IE for Linux: www.tatanka.com.br




Una experiencia web más rápida y con mejor respuesta para Windows.


El nuevo navegador hace posible que los sitios web desplieguen todos sus encantos.


Sitios anclados, Jump Lists y más: todo funciona conjuntamente.
Ve a una dirección web o inicia una búsqueda, y todo ello desde el mismo sitio.


Accede a tus sitios favoritos con un solo clic.


Protección integrada para mantener la seguridad en línea.


            11.     Safari    http://www.apple.com/safari/download/
                                                                
Más navegadores web:

· Arora: Navegador simple para Linux, OS X, Windows y FreeBSD. Incluye soporte para pestañas, marcadores, enlaces a páginas web y el resto de funciones tipicas y además consume pocos recursos. Su web: http://code.google.com/p/arora

· Netsurf: Navegador web multiplataforma muy sencillo. www.netsurf-browser.org

· Galeón: Navegador web que antes se usaba bastante en el escritorio de Gnome. A día de hoy el proyecto está un poco abandonado (dado que hay otros navegadores que cumplen la misma función). http://galeon.sourceforge.net
· DilloNavegador web multiplataforma con entorno gráfico, muy ligero y eficiente. Su web:www.dillo.org

· Iceweasel / Abrowser:
 Dado que 
el nombre y el logo de Firefox son marcas registradas, algunas distribuciones cambian el nombre a Firefox y lo publican como si fuera otro programa distinto (asíse supone que es 100% libre, aunque en realidad usar uno u otro no supone diferencia alguna).www.geticeweasel.org / http://packages.ubuntu.com/abrowser

Internet


Internet fue desarrollado originariamente para los militares de Estados Unidos, y después se utilizó para el gobierno, investigación académica y comercial y para comunicaciones.

Es una combinación de hardware (ordenadores interconectados por vía telefónica o digital) y software (protocolos y lenguajes que hacen que todo funcione). Es una infraestructura de redes a escala mundial (grandes redes principales (tales como MILNET, NSFNET, y CREN), y redes más pequeñas que conectan con ellas) que conecta a la vez a todos los tipos de ordenadores.

Hay unos seis millones de ordenadores que utilizan Internet en todo el mundo y que utilizan varios formatos y protocolos internet:

Internet Protocol (IP): protocolo que se utiliza para dirigir un paquete de datos desde su fuente a su destino a través de Internet.
Transport Control Protocol (TCP): protocolo de control de transmisión, que se utiliza para administrar accesos.
User Datagram Protocol (UDP): protocolo del datagrama del usuario, que permite enviar un mensaje desde un ordenador a una aplicación que se ejecuta en otro ordenador.
Internet tiene varios cuerpos administrativos:

Internet Architecture Board, que supervisa tecnología y estándares.
Internet Assigned Numbers Authority, que asigna los números para los accesos, etc.
InterNIC, que asigna direcciones de Internet.
También: Internet Engineering and Planning Group, Internet Engineering Steering Group, y la Internet Society.


Usos de Internet que hacen los autónomos

Búsqueda de Información
Gestiones bancarias
Relación con clientes/proveedores
Trámites con las AA.PP
Formación
Actividades de Marketing
Búsqueda de oportunidades de negocio
Análisis de la competencia
El autónomo ante el Negocio electrónico
Uso de la red como canal de comercialización
compras por internet
ventas por internet

El autónomo se considera consumidor final y hay mayor porcentaje de compradores que de venderores por internet

Impulso a la venta por internet para el autónomo
Captación de Nuevos clientes
Mejora la imagen
Estar a la altura de la competencia
Expansión del mercado
Reducción de costes
Nuevos productos y servicios
Servicios personalizados
Acelerar procesos de negocio
Mejor calidad de servicios

Utilidades de Internet

e-mail
página web
Firma electrónica/Certificado digital
Facturación electrónica

16 may 2012

Internet Marketing

El marketing es algo nuevo y viejo a la vez. Exagerando un poco, podriamos decir que sus origenes se remonatan a las origenes del comercio entre los pueblos antiguos. Hoy en día el marketing es imprescindible para cualquier empresa que quiera sobrevivir en un mundo tan competitivo como el nuestro.
Concretamente definimos el marketing como intento de satisfacer de la mejor forma posible las necesidades de un grupo social a través del intercambio con beneficio para la empresa.

El Marketing en Internet se originó a inicios de los 1990s como páginas web sencillas, de solo texto que ofrecían información de productos. Luego, siguiendo el desarrollo del internet, evoluciono en avisos publicitarios completos con gráficos.
Actualmente internet constituye un medio de comunicación cada día más importante y utilizado por miliones de personas en todo el mundo. Como sabemos, Internet es un medio interactivo, que a diferencia de los medios tradicionales como radio o televisión, permite conocer las preferencias y tendencias de consumo del posible cliente y desplegar información personalizada de acuerdo a ellas.Internet ha cambiado mucho el mundo del marketing y de los negocios en general.Por eso, debemos de tener en cuenta el empleo de ese medio a la hora de elaborar nuestra estrategia de marketing. Actualmente, el e-Marketing (Marketing en internet) es una alternativa cada vez más utilizada por las empresas para difundir y promocionar sus productos y servicios. La verdadera importancia del márketing en Internet es que, definitivamente, se muestra con todo su poder y se hace casi infinito.

La publicidad en internet ofrece muchas ventajas:
- Permite medir de forma muy precisa y de forma continua el resultado de las campañas de publicidad
- Permite entrar directamente en contacto con los potenciales clientes o usuarios
- Permite continuas adaptaciones y modificaciones de las campañas según las exigencias del momento
- Es mucho más económico que los medios de comunicación "tradicionales"
- Analizar el tipo de clientela que adquiere nuestro producto

Historia de los Blogs

1994 - 2000

El blog moderno es una evolución de los diarios online donde la gente escribía sobre su vida personal, como si fuesen un diario íntimo pero en red. Las páginas abiertas Webring incluían a miembros de la comunidad de diarios en línea. Justin Hall, quien escribió desde 1994 su blog personal, mientras era estudiante de la Universidad de Swarthmore, es reconocido generalmente como uno de los primeros blogueros. También había otras formas de diarios online. Un ejemplo era el diario del programador de juegos John Carmack, publicado mediante el protocolo Finger. Los sitios web, como los sitios corporativos y las páginas web personales, tenían y todavía tienen a menudo secciones sobre noticias o novedades, a menudo en la página principal y clasificados por fecha. Uno de los primeros precursores de un blog fue el sitio web personal de Kibo, actualizado mediante USENET.

26 abr 2012

Ley 1341 de 2009



La ley pretende proteger las TIC's (Tecnologías de la información y la comunicación): Las telecomunicaciones son servicios públicos, mas no de carácter domiciliario.

Promueve el acceso y uso de las TIC a través de la masificación, garantiza la libre competencia, el uso eficiente de la infraestructura y el espectro, y en especial, fortalece la protección de los derechos de los usuarios.

Ley 1243 de 2009

En el contexto actual de nuestro país y del mundo de la tecnología informática se encuentra presente en muchos aspectos de la vida cotidiana; tales como:

-Transacciones comerciales
-Procesos mecánicos industriales y laborales
-Domesticas.

Constantemente nos vemos expuestos a ser víctimas de  ataques informáticos. En esta ley están las acciones por parte del gobierno colombiano contra este flagelo, los resultados informáticos de la policía y sus procedimientos.

Ley 527 de 1999

La ley 527 pretende dar una validez legal a la información electrónica ,  ya que es poco aplicada tanto en el sector en el  ámbito publico como en el privado, quienes a su ves invierten potencialmente en recursos de tecnología de información y comunicación, pretende asegurar y proteger la información digital.

Ley de Propiedad Intelectual

Es la protección legal sobre toda la creación del talento o del ingenio humano en cualquier ámbito tanto científico, artístico, literario, industrial o comercial.

Esta ley pretende que las creaciones de cada persona sean protegidas y tenga derecho a producirlas mediante sus criterios propios.

 

25 abr 2012

Ley Lleras


¿Qué propone?



La ley lleras plantea la privatización de los derechos de autor en Colombia para un control sobre los robos de información virtual, descargas ilegales, etc..

Juan Carlos Monroy, director de la Dirección Nacional de Derechos de Autor, entidad que dio vida a esta proyecto, asegura que la propuesta "no es contra los usuarios", sino "contra los piratas que venden, publican y ponen a disposición ilegalmente, a fines de comercialización, obras protegidas sin autorización".

Los críticos no discuten sobre las buenas intenciones que tiene el proyecto para proteger los derechos de autor de quienes se dedican y viven de la música, la televisión, el software y en general de productos a los que les han dedicado su tiempo y conocimientos.

Para el Gobierno no es justo que alguien que, por ejemplo, desarrolla y vende a través de internet un curso para aprender inglés, sea víctima de una persona que lo fusila, lo monta en la red y además cobra por su descarga. Este tipo de infracción al derecho de autor, según Monroy, es uno de los vacíos legales que existen y que el proyecto de ley busca regular.

Los "castigos" se plantean para quienes publiquen contenidos protegidos con derechos de autor y sin permisos genera muchas inquietudes.

Para el caso de una persona que aloja en su blog o página web un material no autorizado y se lucra de él a través de pauta o cobro por su visualización o descarga, podría pagar con cárcel por el uso incorrecto y robo de la información.


"Esta ley nace de un compromiso de Colombia con los Estados Unidos a partir de la discusión del TLC, que empezó en el 2007, y trata los derechos de autor, pero también algunas excepciones sobre este mismo asunto. No hay duda de que hay que protegerlos, pero se les debe dar el color que el mundo de la tecnología digital impone y reconocer que ya no son fotocopias con las cuales se violan, sino que ahora hay redes sociales y alternativas digitales difíciles de definir y, por lo tanto, de controlar."

Guillermo Santos Calderón-El Tiempo (http://www.eltiempo.com/opinion/columnistas/guillermosantoscalderon/conclusiones-sobre-la-ley-lleras-20-guillermo-santos-calderon-columnista-el-tiempo_11629603-4)





12 abr 2012

Virtualizacion de Aplicacion


Convierte las aplicaciones en servicios virtuales gestionados y administrados de forma centralizada.
Además, debido a que las aplicaciones virtualizadas se ejecutan en su propio entorno dentro de máquinas clientes, los conflictos asociados con el sistema operativo u otras aplicaciones prácticamente se eliminan.


Virtualizacion de Sistemas Operativos


La virtualización es una tecnología que permite ejecutar varios sistemas operativos simultáneamente en una misma máquina. En un entorno virtualizado, cada sistema operativo tiene la ilusión de residir en una máquina propia, disponible enteramente para él. Para conseguir esto es necesario un programa (denominado virtualizador o hipervisor, según la técnica concreta que se utilice) que se encargue de arbitrar el uso del hardware. Para ello intercepta las operaciones privilegiadas y simula sus efectos sobre un dispositivo virtual, también simulado. Así, cuando un sistema operativo cree que está escribiendo en un disco duro real, en realidad lo hace en un fichero, gestionado por el hipervisor, que simula dicho disco duro. Lo mismo con tarjetas de red, pantallas, teclados, etc.

Originalmente, la arquitectura PC no estaba preparada para la virtualización, pues era imposible interceptar algunas operaciones privilegiadas. Esto llevó al desarrollo de dos técnicas que permitían soslayar el problema: la traducción binaria y la paravirtualización. Hoy en día, sin embargo, los dos principales fabricantes de procesadores x86 han incorporado capacidades de virtualización asistidas por hardware, que permiten crear virtualizadores capaces de interceptar todas las posibles operaciones privilegiadas sin necesidad de trucos.

11 abr 2012

Virtualizacion de Servidores y Redes


Los sistemas virtualizados en el que los usuarios finales son capaces de utilizar un único sistema real que comparte sus recursos a través de particiones virtuales representan un importante avance dentro de las tecnologías de la información. Las ventajas que aporta esta tecnología han hecho que la gestión de los recursos virtualizados se convierta en una opción cada vez más usada en los sistemas de información.

En este trabajo se presentan los principales conceptos, pruebas y conclusiones obtenidas en el Hospital Universitario Virgen de la Victoria de Málaga durante la implantación de estos sistemas en su CTI de servidores con el objetivo de mejorar servicios, reducir costes y aumentar la seguridad y disponibilidad

Ventajas

Parece que en los tiempos que corren los servidores dedicados como tal tienen los días contados y la tendencia gira de forma clara entorno a los servidores virtuales como una opción segura y escalable. Esta puede ser sobre una plataforma de servidores virtuales ya definida en algún proveedor de Internet lo que nos aporta libertad para crecer en recursos o sobre una plataforma propia de servidores dedicados que alojarán nuestros virtuales.

En nuestro caso hemos optado por empezar a montar la segunda opción una plataforma propia para nuestros proyectos internos donde dispondremos de varios servidores IBM y Dell de última generación con redudancia de fuente de alimentación y discos duros, donde virtualizaremos multiples servidores para muy diversos cometidos. Por supuesto todo apoyado por un sistema de copias de seguridad de las máquinas virtuales completas para poder restaurar imágenes complentas ante cualquier problema o desastre.

Al hilo de este artículo acabo de leer en Barrapunto que RedHat está empezando a introducirse en el mundo de la virtualización, como una apuesta clara de futuro,RedHat Enterprise Virtualization Hypervisor(REVH) y RedHat Enterprise Virtualization Manager for Servers (REVMS) son las nuevas soluciones de virtualización para servidores y escritorio de este gigante de Linux, que seguro hará que otros tomen caminos similares. Seguro que no tardaremos mucho en ver como Suse, Ubuntu, Debian, … empiezan su adandura en este mundo compitiendo directamente con vmWare y Xen Source. Por cierto aunque vmWare es de las mejores opciones para virtualizar servidores, no es gratis, y como alternativa real nosotros hemos optado por la potencia de Xen Source.

Desventajas

· Menor rendimiento, dado que una máquina virtual corre en una capa intermedia a la del hardware real, siempre tendrá un rendimiento inferior. Si vas ha virtualizar, elige bien cual es la solución que necesitas en función de rendimiento y por supuesto costes y escalabilidad.

· Teóricamente no podrás utilizar hardware que no este soportado por el hipervisor de virtualización.

· Hardware virtual obsoleto. Hasta hoy las máquinas virtuales solo nos ofrecen el acceso a tecnologías antiguas como USB 1.0, Firewire 400, Ethernet 100, pero por suerte hipervisor sigue evolucionando para estar al día con las últimas tendencias.

· La aceleración de vídeo se ve afectada por el menor rendimiento, pero se han conseguido que funcione muy bien las últimas versiones de aplicaciones de virtualización de escritorio como vmWare o Parallels ya incluyen soporte para OpenGL y DirectX.

· Aumento de las máquinas virtuales, como una vía para ahorrar compra de hierro, servidores dedicados reales, y con la idea de mejorar la escalabilidad de los proyectos, aunque también es necesario más tiempo de administración de sistemas, gestión de licencia (si tenemos virtualización de pago), posibles riesgos de seguridad, …

· A veces se desaprovechan los recursos con la creación de máquinas virtuales que no son necesarias.

· La avería o fallo de un servidor anfitrión de virtualización afecta a todos los servidores virtuales que aloja, por lo que es importante no solo copias de seguridad de las máquinas, si no incluso según lo crítico que sea el proyecto unclusters de servidores anfitriones para evitar te posible fallo.

· Como cada producto de virtualización usa sus propios sistemas, no hay uniformidad o estandarización de formatos, la portabilidad entre plataformas es realmente complicada. Por eso es importante esa decisión al principio, lo más normal es utilizar GNU/Linux como base.

· La virtualización incide de forma directa en la venta de servidores reales, aunque los servidores utilizados para virtualizar suelen ser más potentes y por supuesto más caros. Sobre esto se plantea una interesante pregunta, ¿existirá un canon oculto por comprar hardware para virtualización?.

· Como hemos comentado antes el sistema operativo anfitrión se vuelve crítico, por lo que la seguridad de este es vital, así como evitar reinicios innecesarios que hacen todas las máquinas virtuales que alojan puedan quedar fuera de servicio. El reiniciar ya no es la solución, como quizás muchas veces lo es.



Virtualizacion de Almacenamiento


Es un tipo de virtualización, en donde se unen múltiples dispositivos de almacenamiento en red, en lo que aparenta ser una única unidad de almacenamiento.

La virtualización de almacenamiento es a menudo usada en redes de área de almacenamiento, una subred de alta velocidad que comparte dispositivos de almacenamiento, y realiza tareas de almacenamiento, respaldo y recuperación de datos de forma más fácil y rápida.

La virtualización de almacenamiento es generalmente implementada vía aplicaciones de software, hardware y redes.

Los sistemas de almacenamiento pueden proveer almacenamiento accedido por bloque o almacenamiento accedido por fichero. El acceso por bloque generalmente es entregado por canal de fibra, SAS, FICON u otros protocolos. En tanto el acceso por fichero es generalmente proviso usando protocolos NFS y CIFS.

Funcionamiento:

La virtualización de almacenamiento ayuda a lograr la independencia de la ubicación mediando la abstracción de la localización física de los datos. El sistema de virtualización presenta al usuario un espacio lógico para el almacenamiento de datos y controla el proceso de mapeo (asignación) entre este espacio y la ubicación física real.

El software o dispositivo de virtualización es responsable de mantener una vista consistente de todas la información para las asignaciones del almacenamiento virtualizado. Esta información de asignaciones es a menudo llamada meta-dato y es almacenada en la tabla de asignaciones (tabla de mapeo).

Algunas implementaciones no utilizan tabla de asignaciones, en su lugar calculan las ubicaciones empleando un algoritmo. Se dice que estas implementaciones utilizan métodos dinámicos para calcular las localizaciones.

El dispositivo o software de virtualización emplea los metadatos para redirigir los requerimientos de entrada-salida (I/O). Este recibirá un requerimiento de entrada/salida, conteniendo información acerca de la localización del dato en términos del disco lógico; luego traducirá esto en forma de un nuevo requerimiento de entrada-salida, pero esta vez a una localización física del disco. De esta manera el dato real puede ser leído o escrito.

Virtualizacion


Es la técnica empleada sobre las características físicas de algunos recursos computacionales, para ocultarlas de otros sistemas, aplicaciones o usuarios que interactúen con ellos. Esto implica hacer que un recurso físico, como un servidor, un sistema operativo o un dispositivo de almacenamiento, aparezca como si fuera varios recursos lógicos a la vez, o que varios recursos físicos, como servidores o dispositivos de almacenamiento, aparezcan como un único recurso lógico.

Por ejemplo, la virtualización de un sistema operativo es el uso de una aplicación de software para permitir que un mismo sistema operativo maneje varias imágenes de los sistemas operativos a la misma vez.

Esta tecnología permite la separación del hardware y el software, lo cual posibilita a su vez que múltiples sistemas operativos, aplicaciones o plataformas de cómputo se ejecuten simultáneamente en un solo servidor o PC según sea el caso de aplicación.

Hay varias formas de ver o catalogar la virtualización, pero en general se trata de uno de estos dos casos: virtualización de plataforma o virtualización de recursos.

  • Virtualización de plataforma: se trata de simular una máquina real (servidor o PC) con todos sus componentes (los cuales no necesariamente son todos los de la máquina física) y prestarle todos los recursos necesarios para su funcionamiento. En general, hay un software anfitrión que es el que controla que las diferentes máquinas virtuales sean atendidas correctamente y que está ubicado entre el hardware y las máquinas virtuales. Dentro de este esquema caben la mayoría de las formas de virtualización más conocidas, incluidas la virtualización de sistemas operativos, la virtualización de aplicaciones y la emulación de sistemas operativos.
  • Virtualización de recursos: esta permite agrupar varios dispositivos para que sean vistos como uno solo, o al revés, dividir un recurso en múltiples recursos independientes. Generalmente se aplica a medios de almacenamiento. También existe una forma de virtualización de recursos muy popular que no es sino las redes privadas virtuales o VPN, abstracción que permite a un PC conectarse a una red corporativa a través de la Internet como si estuviera en la misma sede física de la compañía.



22 mar 2012

Digitalizacion


Es el proceso en el cual se cambia la información que antes se manejaba de una manera analógica a una manera digital.

Los múltiples cambios que ha sufrido la tecnología nos han llevado a que todo tipo de información ahora se maneja de manera digital ya que facilita su portabandera así como la manera de poder adquirirlos en cualquier momento.

No se puede decir que la digitalizacion es absolutamente necesaria y aún mas que es absolutamente buena ya que así exista en un mundo digital puede llegar a manos corruptas la información y puede verse afectada de un sin fin de formas una persona o mas hasta empresas y compañías.

Pero por su lado positivo nos ayuda en diferentes formas a portar, proteger y distribuir todo tipo de información en cualquier parte del mundo de manera virtual.

Economía gobernada por el conocimiento


La economía es la ciencia que estudia el uso y control de los factores financieros para un objetivo estable.

Pero como todo poder si la economía no es controlada se supone a ser corrupta a lo largo de el tiempo, al ser guiada por el conocimiento la economía nos permite analizar los diferentes cambios que ha tenido el mundo a medida que han pasado los años y la diversas cantidades de economía que existen hasta este entonces:

- Economía Digital
- Micro Economía
- Macro Encomia

Entre otras nos dan diversos puntos de vista de ver los controles que ha tenido la humanidad en cuento al manejo de sus bienes y servicios desde las monarquías absolutistas, el capitalista y el comunismo y la democracia,etc..

Debemos reflexionar y pensar si todo lo que hacemos y lo que hemos visto nos beneficia y si no ¿Como podemos ayudar a evitarlo?.

Globalizacion de Produccion


Es frecuente pensar que el comercio internacional se reduce al intercambio de bienes finales, pero lo cierto es que un porcentaje elevado de las transacciones se produce intercambiando bienes producidos en varios países y ensamblados en otro, que a su vez, exportará el bien final a otros. Este proceso refleja la globalización del proceso de producción, y se debe a la planificación de ésta por parte de las grandes corporaciones multinacionales que producen cada componente del bien final en el país que mejores condiciones reúne para su fabricación.

Su relevancia y alcance puede entenderse mejor comparando las modernas fábricas de automóviles, que ensamblan distintos componentes fabricados en varios países, a diferencia a como lo hacían las fábricas integrales, relacionadas con Henry Ford y el fordismo que, hasta la década de 1970, fabricaban todas las piezas del coche, desde la carrocería hasta los asientos pasando por la tapicería.

Otro ejemplo relevante es el de la industria textil, reestructurada durante las últimas décadas, de forma que un proceso se realiza en un país, el siguiente en otro distinto y el vestido final se cose en un tercero. Esta división productiva ha sido un motor importante de los cambios producidos en la división internacional del trabajo, ya que la mano de obra de cada país, se ha especializado en la realización de componentes y piezas de un determinado producto.

La globalización de la producción se ha conseguido gracias a la inversión en otros países (inversión extranjera directa) realizada por las multinacionales que poseen y gestionan fábricas e instalaciones productivas en varios países. Estas multinacionales (o corporaciones transnacionales) constituyen la empresa-tipo de la actual economía mundial. Como producen a escala global, venden productos en todo el mundo, e invierten en muchos países, se puede decir que no tienen país de origen, sino que pertenecen a la economía mundial; el hecho de que su residencia fiscal esté en un país u otro es un mero formalismo.

Las empresas multinacionales propietarias de instalaciones productivas en varios países existen desde hace mucho tiempo. Durante el siglo XIX (y durante la segunda mitad del siglo XX) las inversiones extranjeras directas de las empresas europeas y estadounidenses eran muy numerosas. Sin embargo, la característica distintiva de las multinacionales a partir de la década de 1970 es precisamente la división productiva a escala internacional. En lugar de crear fábricas en otros países, las multinacionales han creado redes de fábricas especializadas en una parte del proceso de producción como subdivisiones o departamentos del proceso organizado a escala mundial. Otro cambio importante es que antes las multinacionales tenían su domicilio fiscal en Estados Unidos o en un país de Europa occidental, y ahora el espectro se amplió, muchas son japonesas o coreanas, y cada vez más aparecen domiciliadas en países poco industrializados.