Este Blogg trata sobre las principales problemáticas informáticas y los temas que han llevado a este control.
26 abr 2012
Ley 1341 de 2009
La ley pretende proteger las TIC's (Tecnologías de la información y la comunicación): Las telecomunicaciones son servicios públicos, mas no de carácter domiciliario.
Promueve el acceso y uso de las TIC a través de la masificación, garantiza la libre competencia, el uso eficiente de la infraestructura y el espectro, y en especial, fortalece la protección de los derechos de los usuarios.
Ley 1243 de 2009
-Transacciones comerciales
-Procesos mecánicos industriales y laborales
-Domesticas.
Constantemente nos vemos expuestos a ser víctimas de ataques informáticos. En esta ley están las acciones por parte del gobierno colombiano contra este flagelo, los resultados informáticos de la policía y sus procedimientos.
Ley 527 de 1999
Ley de Propiedad Intelectual
Esta ley pretende que las creaciones de cada persona sean protegidas y tenga derecho a producirlas mediante sus criterios propios.
25 abr 2012
Ley Lleras
¿Qué propone?
La ley lleras plantea la privatización de los derechos de autor en Colombia para un control sobre los robos de información virtual, descargas ilegales, etc..
Juan Carlos Monroy, director de la Dirección Nacional de Derechos de Autor, entidad que dio vida a esta proyecto, asegura que la propuesta "no es contra los usuarios", sino "contra los piratas que venden, publican y ponen a disposición ilegalmente, a fines de comercialización, obras protegidas sin autorización".
Los críticos no discuten sobre las buenas intenciones que tiene el proyecto para proteger los derechos de autor de quienes se dedican y viven de la música, la televisión, el software y en general de productos a los que les han dedicado su tiempo y conocimientos.
Para el Gobierno no es justo que alguien que, por ejemplo, desarrolla y vende a través de internet un curso para aprender inglés, sea víctima de una persona que lo fusila, lo monta en la red y además cobra por su descarga. Este tipo de infracción al derecho de autor, según Monroy, es uno de los vacíos legales que existen y que el proyecto de ley busca regular.
Los "castigos" se plantean para quienes publiquen contenidos protegidos con derechos de autor y sin permisos genera muchas inquietudes.
Para el caso de una persona que aloja en su blog o página web un material no autorizado y se lucra de él a través de pauta o cobro por su visualización o descarga, podría pagar con cárcel por el uso incorrecto y robo de la información.
"Esta ley nace de un compromiso de Colombia con los Estados Unidos a partir de la discusión del TLC, que empezó en el 2007, y trata los derechos de autor, pero también algunas excepciones sobre este mismo asunto. No hay duda de que hay que protegerlos, pero se les debe dar el color que el mundo de la tecnología digital impone y reconocer que ya no son fotocopias con las cuales se violan, sino que ahora hay redes sociales y alternativas digitales difíciles de definir y, por lo tanto, de controlar."
Guillermo Santos Calderón-El Tiempo (http://www.eltiempo.com/opinion/columnistas/guillermosantoscalderon/conclusiones-sobre-la-ley-lleras-20-guillermo-santos-calderon-columnista-el-tiempo_11629603-4)
12 abr 2012
Virtualizacion de Aplicacion

Virtualizacion de Sistemas Operativos
La virtualización es una tecnología que permite ejecutar varios sistemas operativos simultáneamente en una misma máquina. En un entorno virtualizado, cada sistema operativo tiene la ilusión de residir en una máquina propia, disponible enteramente para él. Para conseguir esto es necesario un programa (denominado virtualizador o hipervisor, según la técnica concreta que se utilice) que se encargue de arbitrar el uso del hardware. Para ello intercepta las operaciones privilegiadas y simula sus efectos sobre un dispositivo virtual, también simulado. Así, cuando un sistema operativo cree que está escribiendo en un disco duro real, en realidad lo hace en un fichero, gestionado por el hipervisor, que simula dicho disco duro. Lo mismo con tarjetas de red, pantallas, teclados, etc.
Originalmente, la arquitectura PC no estaba preparada para la virtualización, pues era imposible interceptar algunas operaciones privilegiadas. Esto llevó al desarrollo de dos técnicas que permitían soslayar el problema: la traducción binaria y la paravirtualización. Hoy en día, sin embargo, los dos principales fabricantes de procesadores x86 han incorporado capacidades de virtualización asistidas por hardware, que permiten crear virtualizadores capaces de interceptar todas las posibles operaciones privilegiadas sin necesidad de trucos.
11 abr 2012
Virtualizacion de Servidores y Redes
Ventajas
Parece que en los tiempos que corren los servidores dedicados como tal tienen los días contados y la tendencia gira de forma clara entorno a los servidores virtuales como una opción segura y escalable. Esta puede ser sobre una plataforma de servidores virtuales ya definida en algún proveedor de Internet lo que nos aporta libertad para crecer en recursos o sobre una plataforma propia de servidores dedicados que alojarán nuestros virtuales.
En nuestro caso hemos optado por empezar a montar la segunda opción una plataforma propia para nuestros proyectos internos donde dispondremos de varios servidores IBM y Dell de última generación con redudancia de fuente de alimentación y discos duros, donde virtualizaremos multiples servidores para muy diversos cometidos. Por supuesto todo apoyado por un sistema de copias de seguridad de las máquinas virtuales completas para poder restaurar imágenes complentas ante cualquier problema o desastre.
Al hilo de este artículo acabo de leer en Barrapunto que RedHat está empezando a introducirse en el mundo de la virtualización, como una apuesta clara de futuro, ‘RedHat Enterprise Virtualization Hypervisor‘ (REVH) y ‘RedHat Enterprise Virtualization Manager for Servers‘ (REVMS) son las nuevas soluciones de virtualización para servidores y escritorio de este gigante de Linux, que seguro hará que otros tomen caminos similares. Seguro que no tardaremos mucho en ver como Suse, Ubuntu, Debian, … empiezan su adandura en este mundo compitiendo directamente con vmWare y Xen Source. Por cierto aunque vmWare es de las mejores opciones para virtualizar servidores, no es gratis, y como alternativa real nosotros hemos optado por la potencia de Xen Source.
Desventajas
· Menor rendimiento, dado que una máquina virtual corre en una capa intermedia a la del hardware real, siempre tendrá un rendimiento inferior. Si vas ha virtualizar, elige bien cual es la solución que necesitas en función de rendimiento y por supuesto costes y escalabilidad.
· Teóricamente no podrás utilizar hardware que no este soportado por el hipervisor de virtualización.
· Hardware virtual obsoleto. Hasta hoy las máquinas virtuales solo nos ofrecen el acceso a tecnologías antiguas como USB 1.0, Firewire 400, Ethernet 100, pero por suerte hipervisor sigue evolucionando para estar al día con las últimas tendencias.
· La aceleración de vídeo se ve afectada por el menor rendimiento, pero se han conseguido que funcione muy bien las últimas versiones de aplicaciones de virtualización de escritorio como vmWare o Parallels ya incluyen soporte para OpenGL y DirectX.
· Aumento de las máquinas virtuales, como una vía para ahorrar compra de hierro, servidores dedicados reales, y con la idea de mejorar la escalabilidad de los proyectos, aunque también es necesario más tiempo de administración de sistemas, gestión de licencia (si tenemos virtualización de pago), posibles riesgos de seguridad, …
· A veces se desaprovechan los recursos con la creación de máquinas virtuales que no son necesarias.
· La avería o fallo de un servidor anfitrión de virtualización afecta a todos los servidores virtuales que aloja, por lo que es importante no solo copias de seguridad de las máquinas, si no incluso según lo crítico que sea el proyecto unclusters de servidores anfitriones para evitar te posible fallo.
· Como cada producto de virtualización usa sus propios sistemas, no hay uniformidad o estandarización de formatos, la portabilidad entre plataformas es realmente complicada. Por eso es importante esa decisión al principio, lo más normal es utilizar GNU/Linux como base.
· La virtualización incide de forma directa en la venta de servidores reales, aunque los servidores utilizados para virtualizar suelen ser más potentes y por supuesto más caros. Sobre esto se plantea una interesante pregunta, ¿existirá un canon oculto por comprar hardware para virtualización?.
· Como hemos comentado antes el sistema operativo anfitrión se vuelve crítico, por lo que la seguridad de este es vital, así como evitar reinicios innecesarios que hacen todas las máquinas virtuales que alojan puedan quedar fuera de servicio. El reiniciar ya no es la solución, como quizás muchas veces lo es.
Virtualizacion de Almacenamiento
Es un tipo de virtualización, en donde se unen múltiples dispositivos de almacenamiento en red, en lo que aparenta ser una única unidad de almacenamiento.
La virtualización de almacenamiento es a menudo usada en redes de área de almacenamiento, una subred de alta velocidad que comparte dispositivos de almacenamiento, y realiza tareas de almacenamiento, respaldo y recuperación de datos de forma más fácil y rápida.
La virtualización de almacenamiento es generalmente implementada vía aplicaciones de software, hardware y redes.
Los sistemas de almacenamiento pueden proveer almacenamiento accedido por bloque o almacenamiento accedido por fichero. El acceso por bloque generalmente es entregado por canal de fibra, SAS, FICON u otros protocolos. En tanto el acceso por fichero es generalmente proviso usando protocolos NFS y CIFS.
Funcionamiento:
La virtualización de almacenamiento ayuda a lograr la independencia de la ubicación mediando la abstracción de la localización física de los datos. El sistema de virtualización presenta al usuario un espacio lógico para el almacenamiento de datos y controla el proceso de mapeo (asignación) entre este espacio y la ubicación física real.
El software o dispositivo de virtualización es responsable de mantener una vista consistente de todas la información para las asignaciones del almacenamiento virtualizado. Esta información de asignaciones es a menudo llamada meta-dato y es almacenada en la tabla de asignaciones (tabla de mapeo).
Algunas implementaciones no utilizan tabla de asignaciones, en su lugar calculan las ubicaciones empleando un algoritmo. Se dice que estas implementaciones utilizan métodos dinámicos para calcular las localizaciones.
El dispositivo o software de virtualización emplea los metadatos para redirigir los requerimientos de entrada-salida (I/O). Este recibirá un requerimiento de entrada/salida, conteniendo información acerca de la localización del dato en términos del disco lógico; luego traducirá esto en forma de un nuevo requerimiento de entrada-salida, pero esta vez a una localización física del disco. De esta manera el dato real puede ser leído o escrito.
Virtualizacion

Es la técnica empleada sobre las características físicas de algunos recursos computacionales, para ocultarlas de otros sistemas, aplicaciones o usuarios que interactúen con ellos. Esto implica hacer que un recurso físico, como un servidor, un sistema operativo o un dispositivo de almacenamiento, aparezca como si fuera varios recursos lógicos a la vez, o que varios recursos físicos, como servidores o dispositivos de almacenamiento, aparezcan como un único recurso lógico.
Por ejemplo, la virtualización de un sistema operativo es el uso de una aplicación de software para permitir que un mismo sistema operativo maneje varias imágenes de los sistemas operativos a la misma vez.
Esta tecnología permite la separación del hardware y el software, lo cual posibilita a su vez que múltiples sistemas operativos, aplicaciones o plataformas de cómputo se ejecuten simultáneamente en un solo servidor o PC según sea el caso de aplicación.
Hay varias formas de ver o catalogar la virtualización, pero en general se trata de uno de estos dos casos: virtualización de plataforma o virtualización de recursos.
- Virtualización de plataforma: se trata de simular una máquina real (servidor o PC) con todos sus componentes (los cuales no necesariamente son todos los de la máquina física) y prestarle todos los recursos necesarios para su funcionamiento. En general, hay un software anfitrión que es el que controla que las diferentes máquinas virtuales sean atendidas correctamente y que está ubicado entre el hardware y las máquinas virtuales. Dentro de este esquema caben la mayoría de las formas de virtualización más conocidas, incluidas la virtualización de sistemas operativos, la virtualización de aplicaciones y la emulación de sistemas operativos.
- Virtualización de recursos: esta permite agrupar varios dispositivos para que sean vistos como uno solo, o al revés, dividir un recurso en múltiples recursos independientes. Generalmente se aplica a medios de almacenamiento. También existe una forma de virtualización de recursos muy popular que no es sino las redes privadas virtuales o VPN, abstracción que permite a un PC conectarse a una red corporativa a través de la Internet como si estuviera en la misma sede física de la compañía.

