lunes, 13 de septiembre de 2010

SISTEMAS OPERATIVOS

Sistema operativo
Un sistema operativo es un software de sistema, es decir, un conjunto de programas de computación destinados a realizar muchas tareas entre las que destaca la administración de los dispositivos periféricos.

Cuando se aplica voltaje al procesador de un dispositivo electrónico, éste ejecuta un reducido código en lenguaje ensamblador localizado en una dirección concreta en la ROM (dirección de reset) y conocido como reset code, que a su vez ejecuta una rutina con la que se inicializa el hardware que acompaña al procesador. También en esta fase suele inicializarse el controlador de las interrupciones. Finalizada esta fase se ejecuta el código de arranque (startup code), también código en lenguaje ensamblador, cuya tarea más importante es ejecutar el programa principal (main()) del software de la aplicación.1

Un sistema operativo se puede encontrar en la mayoría de los aparatos electrónicos que utilicen microprocesadores para funcionar, ya que gracias a éstos podemos entender la máquina y que ésta cumpla con sus funciones (teléfonos móviles, reproductores de DVD, autoradios, computadoras, radios, etc).
Funciones básicas: Los sistemas operativos, en su condición de capa software que posibilitan y simplifica el manejo de la computadora, desempeñan una serie de funciones básicas esenciales para la gestión del equipo. Entre las más destacables, cada una ejercida por un componente interno (módulo en núcleos monolíticos y servidor en micronúcleos), podemos reseñar las siguientes:

• Proporcionar más comodidad en el uso de un computador.
• Gestionar de manera eficiente los recursos del equipo, ejecutando servicios para los procesos (programas)
• Brindar una interfaz al usuario, ejecutando instrucciones (comandos).
• Permitir que los cambios debidos al desarrollo del propio SO se puedan realizar sin interferir con los servicios que ya se prestaban (evolutividad).

Un sistema operativo desempeña 5 funciones básicas en la operación de un sistema informático: suministro de interfaz al usuario, administración de recursos, administración de archivos, administración de tareas y servicio de soporte y utilidades.

Un núcleo monolítico es un tipo de núcleo o kernel de un sistema operativo. Como ejemplo de sistema operativo de núcleo monolítico están UNIX, Linux y FreeBSD.
Estos sistemas tienen un núcleo grande y complejo, que engloba todos los servicios del sistema. Está programado de forma no modular, y tiene un rendimiento mayor que un micronúcleo. Sin embargo, cualquier cambio a realizar en cualquier servicio requiere la recompilación del núcleo y el reinicio del sistema para aplicar los nuevos cambios.

FreeBSD es un sistema operativo libre para computadoras basado en las CPU de arquitectura Intel, incluyendo procesadores 386, 486 (versiones SX y DX), y Pentium. También funciona en procesadores compatibles con Intel como AMD y Cyrix. Actualmente también es posible utilizarlo hasta en once arquitecturas distintas2 como Alpha, AMD64, IA-64, MIPS, PowerPC y UltraSPARC.
FreeBSD está basado en la versión 4.4 BSD-Lite del Computer Systems Research Group (CSRG) de la University of California, Berkeley siguiendo la tradición que ha distinguido el desarrollo de los sistemas BSD. Además del trabajo realizado por el CSRG, el proyecto FreeBSD ha invertido miles de horas en ajustar el sistema para ofrecer las máximas prestaciones en situaciones de carga real.

Interfaces del usuario

Es la parte del sistema operativo que permite comunicarse con él, de tal manera que se puedan cargar programas, acceder archivos y realizar otras tareas. Existen tres tipos básicos de interfaces: las que se basan en comandos, las que utilizan menús y las interfaces gráficas de usuario.

Administración de recursos

Sirven para administrar los recursos de hardware y de redes de un sistema informático, como la CPU, memoria, dispositivos de almacenamiento secundario y periféricos de entrada y de salida.

Administración de archivos
Un sistema de información contiene programas de administración de archivos que controlan la creación, borrado y acceso de archivos de datos y de programas. También implica mantener el registro de la ubicación física de los archivos en los discos magnéticos y en otros dispositivos de almacenamiento secundarios.

Administración de tareas
Los programas de administración de tareas de un sistema operativo administran la realización de las tareas informáticas de los usuarios finales. Los programas controlan qué áreas tienen acceso al CPU y por cuánto tiempo. Las funciones de administración de tareas pueden distribuir una parte específica del tiempo del CPU para una tarea en particular, e interrumpir al CPU en cualquier momento para sustituirla con una tarea de mayor prioridad.

Software propietario:
El término software propietario, privativo o de código cerrado hace referencia a cualquier programa informático en el que los usuarios tienen limitadas las posibilidades de usarlo, modificarlo o redistribuirlo (con o sin modificaciones), o cuyo código fuente no está disponible o el acceso a éste se encuentra restringido. -En el software de código cerrado una persona física o jurídica (compañía, corporación, fundación, etc.) posee los derechos de autor sobre un software lo que le da la posibilidad de controlar y restringir los derechos del usuario sobre su programa. Esto implica por lo general que el usuario sólo tiene derecho a ejecutar el software y no dispone de acceso a su código fuente o aún teniendo acceso a él no tiene derecho a modificarlo ni distribuirlo.

Software libre:
El software libre es software que viene con autorización para que cualquiera pueda usarlo, copiarlo y distribuirlo, ya sea literal o con modificaciones, gratis o mediante una gratificación. En particular, esto significa que el código fuente debe estar disponible. "Si no es fuente, no es software''. Ésta es una definición simplificada; ver también la definición completa. Si un programa es libre, entonces puede ser potencialmente incluido en un sistema operativo libre tal como GNU, o sistemas GNU/Linux libres.

Hardware las partes físicas y tangibles de una computadora:
sus componentes eléctricos, electrónicos, electromecánicos y mecánicos; sus cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente al soporte lógico e intangible que es llamado software. El término proviene del inglés y es definido por la RAE como el "Conjunto de los componentes que integran la parte material de una computadora". Sin embargo, el término, aunque es lo más común, no necesariamente se aplica a una computadora tal como se la conoce, así por ejemplo, un robot también posee hardware (y software).
Dispositivos de Red: Es un conjunto de dispositivos físicos "hardware" y de programas "software", mediante el cual podemos comunicar computadoras para compartir recursos (discos, impresoras, programas, etc.) así como trabajo (tiempo de cálculo, procesamiento de datos, etc.).
A cada una de las computadoras conectadas a la red se le denomina un nodo. Se considera que una red es local si solo alcanza unos pocos kilómetros.

Tipos De Redes
Las redes de información se pueden clasificar según su extensión y su topología. Una red puede empezar siendo pequeña para crecer junto con la organización o institución. A continuación se presenta los distintos tipos de redes disponibles:
Extensión
De acuerdo con la distribución geográfica:

• Segmento de red (subred)
Un segmento de red suele ser definido por el "hardware" o una dirección de red específica. Por ejemplo, en el entorno "Novell NetWare", en un segmento de red se incluyen todas las estaciones de trabajo conectadas a una tarjeta de interfaz de red de un servidor y cada segmento tiene su propia dirección de red.

• Red de área locales (LAN)
Una LAN es un segmento de red que tiene conectadas estaciones de trabajo y servidores o un conjunto de segmentos de red interconectados, generalmente dentro de la misma zona. Por ejemplo un edificio.

• Red de campus
Una red de campus se extiende a otros edificios dentro de un campus o área industrial. Los diversos segmentos o LAN de cada edificio suelen conectarse mediante cables de la red de soporte.

• Red de área metropolitanas (MAN)
Una red MAN es una red que se expande por pueblos o ciudades y se interconecta mediante diversas instalaciones públicas o privadas, como el sistema telefónico o los suplidores de sistemas de comunicación por microondas o medios ópticos.

• Red de área extensa (WAN y redes globales)
Las WAN y redes globales se extienden sobrepasando las fronteras de las ciudades, pueblos o naciones. Los enlaces se realizan con instalaciones de telecomunicaciones públicas y privadas, además por microondas y satélites.

. Topología
La topología o forma lógica de una red se define como la forma de tender el cable a estaciones de trabajo individuales; por muros, suelos y techos del edificio. Existe un número de factores a considerar para determinar cual topología es la más apropiada para una situación dada. Existen tres topologías comunes:

• Anillo
Las estaciones están unidas unas con otras formando un círculo por medio de un cable común. El último nodo de la cadena se conecta al primero cerrando el anillo. Las señales circulan en un solo sentido alrededor del círculo, regenerándose en cada nodo. Con esta metodología, cada nodo examina la información que es enviada a través del anillo. Si la información no está dirigida al nodo que la examina, la pasa al siguiente en el anillo. La desventaja del anillo es que si se rompe una conexión, se cae la red completa.

• Estrella
La red se une en un único punto, normalmente con un panel de control centralizado, como un concentrador de cableado . Los bloques de información son dirigidos a través del panel de control central hacia sus destinos. Este esquema tiene una ventaja al tener un panel de control que monitorea el tráfico y evita las colisiones y una conexión interrumpida no afecta al resto de la red.

• "Bus"
Las estaciones están conectadas por un único segmento de cable. A diferencia del anillo, el bus es pasivo, no se produce regeneración de las señales en cada nodo. Los nodos en una red de "bus" transmiten la información y esperan que ésta no vaya a chocar con otra información transmitida por otro de los nodos. Si esto ocurre, cada nodo espera una pequeña cantidad de tiempo al azar, después intenta retransmitir la información.

• Híbridas
El bus lineal, la estrella y el anillo se combinan algunas veces para formar combinaciones de redes híbridas.

* Anillo en estrella
Esta topología se utiliza con el fin de facilitar la administración de la red. Físicamente, la red es una estrella centralizada en un concentrador, mientras que a nivel lógico, la red es un anillo.

* "Bus" en estrella
El fin es igual a la topología anterior. En este caso la red es un "bus" que se cablea físicamente como una estrella por medio de concentradores.

* Estrella jerárquica
Esta estructura de cableado se utiliza en la mayor parte de las redes locales actuales, por medio de concentradores dispuestos en cascada par formar una red jerárquica.

Protocolos de redes
Un protocolo de red es como un lenguaje para la comunicación de información. Son las reglas y procedimientos que se utilizan en una red para comunicarse entre los nodos que tienen acceso al sistema de cable. Los protocolos gobiernan dos niveles de comunicaciones:
o Los protocolos de alto nivel: Estos definen la forma en que se comunican las aplicaciones.
o Los protocolos de bajo nivel: Estos definen la forma en que se transmiten las señales por cable.
Como es frecuente en el caso de las computadoras el constante cambio, también los protocolos están en continuo cambio. Actualmente, los protocolos más comúnmente utilizados en las redes son Ethernet, Token Ring y ARCNET. Cada uno de estos esta diseñado para cierta clase de topología de red y tienen ciertas características estándar.

Ethernet
Actualmente es el protocolo más sencillo y es de bajo costo. Utiliza la topología de "Bus" lineal.

Token Ring
El protocolo de red IBM es el Token ring, el cual se basa en la topología de anillo.
Arnet
Se basa en la topología de estrella o estrella distribuida, pero tiene una topología y protocolo propio.

Dispositivos de redes

NIC/MAU (Tarjeta de red)
"Network Interface Card" (Tarjeta de interfaz de red) o "Medium Access Unit" (Medio de unidad de acceso). Cada computadora necesita el "hardware" para transmitir y recibir información. Es el dispositivo que conecta la computadora u otro equipo de red con el medio físico.

La NIC es un tipo de tarjeta de expansión de la computadora y proporciona un puerto en la parte trasera de la PC al cual se conecta el cable de la red. Hoy en día cada vez son más los equipos que disponen de interfaz de red, principalmente Ethernet, incorporadas. A veces, es necesario, además de la tarjeta de red, un transceptor. Este es un dispositivo que se conecta al medio físico y a la tarjeta, bien porque no sea posible la conexión directa (10 base 5) o porque el medio sea distinto del que utiliza la tarjeta.

Hubs (Concentradores)
Son equipos que permiten estructurar el cableado de las redes. La variedad de tipos y características de estos equipos es muy grande. En un principio eran solo concentradores de cableado, pero cada vez disponen de mayor número de capacidad de la red, gestión remota, etc. La tendencia es a incorporar más funciones en el concentrador. Existen concentradores para todo tipo de medios físicos.

Repetidores
Son equipos que actúan a nivel físico. Prolongan la longitud de la red uniendo dos segmentos y amplificando la señal, pero junto con ella amplifican también el ruido. La red sigue siendo una sola, con lo cual, siguen siendo válidas las limitaciones en cuanto al número de estaciones que pueden compartir el medio.

"Bridges" (Puentes)
Son equipos que unen dos redes actuando sobre los protocolos de bajo nivel, en el nivel de control de acceso al medio. Solo el tráfico de una red que va dirigido a la otra atraviesa el dispositivo. Esto permite a los administradores dividir las redes en segmentos lógicos, descargando de tráfico las interconexiones. Los bridges producen las señales, con lo cual no se transmite ruido a través de ellos.

"Routers" (Encaminadores)
Son equipos de interconexión de redes que actúan a nivel de los protocolos de red. Permite utilizar varios sistemas de interconexión mejorando el rendimiento de la transmisión entre redes. Su funcionamiento es más lento que los bridges pero su capacidad es mayor. Permiten, incluso, enlazar dos redes basadas en un protocolo, por medio de otra que utilice un protocolo diferente.

"Gateways"
Son equipos para interconectar redes con protocolos y arquitecturas completamente diferentes a todos los niveles de comunicación. La traducción de las unidades de información reduce mucho la velocidad de transmisión a través de estos equipos.

Servidores
Son equipos que permiten la conexión a la red de equipos periféricos tanto para la entrada como para la salida de datos. Estos dispositivos se ofrecen en la red como recursos compartidos. Así un terminal conectado a uno de estos dispositivos puede establecer sesiones contra varios ordenadores multiusuario disponibles en la red. Igualmente, cualquier sistema de la red puede imprimir en las impresoras conectadas a un servidor.

Módems
Son equipos que permiten a las computadoras comunicarse entre sí a través de líneas telefónicas; modulación y demodulación de señales electrónicas que pueden ser procesadas por computadoras. Los módems pueden ser externos (un dispositivo de comunicación) o interno (dispositivo de comunicación interno o tarjeta de circuitos que se inserta en una de las ranuras de expansión de la computadora).

VECTORES

Vectores

Los vectores (arrays) junto con las listas son dos elementos estructurados habituales de un lenguje de programación. En MetaTalk se puede trabajar a modo de listas puesto que las variables no tienen un tamaño predefinido y puede crecer o disminuir con los contenidos que se les asignan. En este caso el siguiente o el antecesor se han de traducir a operaciones con los trozos (chunks) que permite direccionar el lenguaje

El caso de los vectores es tanto o más interesante. Los elementos del vector se puede indexar a partir de valores numéricos, como es usual entre corchetes.

local codics

on mouseUp
repeat with i = 1 to 3
put (i*10+1) into codics[ i ]
end repeat

put the keys of codics

repeat with i = 1 to the number of lines of (the keys of codics)
answer i & return & codics[ i ]
end repeat
end mouseUp


El número de dimensiones de los vectores no está limitado, así que se pueden construir matrices (matrix) y operar con ellas con las funciones que incorpora el lenguaje.

local matriuA, matriuB, matriuC, dimensio

on mouseUp
repeat with i = 1 to 3
repeat with j = 1 to 3
put (i&j) into matriuA[i,j]
put 2 into matriuB[i,j]
end repeat
end repeat

put matrixMultiply(matriuA, matriuB) into matriuC
put extents(matriuC) into dimensio
put "a" && extents(matriuA) && return &\
"b" && extents(matriuB) && return &\
"c" && dimensio

repeat with i = 1 to the second item of line 1 of dimensio
repeat with j = 1 to the second item of line 2 of dimensio
answer i & "," & j && matriuC[ i,j ]
end repeat
end repeat
end mouseUp

#Per si tens interés, deu donar:
# C = A * B
# 72 72 72 11 12 13 2 2 2
#132 132 132 = 21 22 23 * 2 2 2
#192 192 192 31 32 33 2 2 2


La función extents permite obtener el número de entradas; en realidad el índice menor y el mayor utilizados. Si tuviese más de una dimensión, cada rango de valores aparece en separado del siguiente por un salto de línea. La función keys también lo obtiene, además de los valores de los índices de una variable; se ha introducido aquí para comparar el tratamiento con los vectores asociativos. El interés de estos radica en la facilidad con que se implemetan los diccionarios y otros objetos que consisten en indexar los elementos por una clave no numérica. Estos son una variante de los vectores donde los elementos índice no son numéricos sino alfabéticos.

El siguiente ejemplo muestra cómo se puede generar un vector asociativo a partir de una cadena de caracteres, cómo se pueden ordenar los elementos de índice (el criterio no tiene por qué ser alfabético, pero era el más sencillo) y cómo acceder a los valores almacenados. Por si lo está pensado: sí, existe una orden combine que hace la operación inversa a split. Sencillo, ¿verdad?

local codicsTecles="codic_a=97&codic_e=101&codic_i=105&codic_o=111&codic_u=117"

on mouseUp
put "Inicialment:" && codicsTecles

answer "Antes" & return & keys( codicsTecles ) titled "Antes"
split codicsTecles by "&" and "="

put keys( codicsTecles ) into varAux
sort lines of varAux
answer "Despues" & return & varAux titled "Despues"

repeat with i = 1 to the number of lines of varAux
answer codicsTecles[ (line i of varAux) ] && return & (line i of varAux)
end repeat
end mouseUp

martes, 2 de marzo de 2010

ALGORITMO

Algoritmo
Ø Conjunto de instrucciones que permite la resolución de un problema paso a paso; Método de notación en las distintas formas del cálculo

Ø es el conjunto de instrucciones que configuran el procedimiento paso a paso para resolver un determinado problema en una cantidad finita de tiempo

Ø Conjunto de instrucciones concretas y detalladas mediante el cual se consigue una acción determinada. ...

Ø Método gradual para la solución de problemas que garantiza una solución correcta.
Los diagramas de flujo sirven para representar algoritmos de manera gráfica.

Programa

Ø Conjunto de instrucciones que indican a la computadora lo que debe hacer. Un programa se escribe en un lenguaje de programación y se convierte al lenguaje de máquina de la computadora por medio de otros programas denominados ensambladores y compiladores. Los programas se componen de instrucciones, buffers y constantes. Las primeras son las directivas que la computadora debe seguir (la parte lógica del programa) Los buffers (memorias intermedias) son espacios reservados en el programa, que aceptarán y almacenarán los datos mientras son procesados. Las constantes son valores fijos dentro del programa, que se usan para las comparaciones.

Ø Conjunto de instrucciones estructuradas y ordenadas las cuales un ordenador puede interpretar y ejecutar.

Ø Es un conjunto de instrucciones dirigidas a la computadora para que esta lleve a cabo una secuencia de acciones con el objetivo de realizar una o más operaciones que permitan solucionar un problema

El lenguaje algorítmico y el informático.
El lenguaje algorítmico es aquel por medio del cual se realiza un análisis previo del problema a resolver y encontrar un método que permita resolverlo. El conjunto de todas las operaciones a realizar, y el orden en el que deben efectuarse, se le denomina algoritmo.
El lenguaje informático es aquel por medio del cual dicho algoritmo se codifica a un sistema comprensible por el ordenador o computadora. Este tipo de lenguaje es más cercano a la máquina que al ser humano y podemos distinguir distintos tipos dependiendo de la proximidad a la maquina. Se denomina lenguaje de alto nivel aquel que es más cercano a la comprensión humana y lenguaje de bajo nivel a aquellos que son más comprensibles por la máquina. En concreto, nosotros vamos a estudiar un lenguaje en la frontera de uno de bajo nivel. Es por ello que el 'C' es tan potente y rápido, pues las funciones principales representan las funciones más básicas del ordenador.
Lenguaje de programación:
Un lenguaje de programación es un idioma artificial diseñado para expresar computaciones que pueden ser llevadas a cabo por máquinas como las computadoras. Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana. Está formado de un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones.
Existe un error común que trata por sinónimos los términos 'lenguaje de programación' y 'lenguaje informático'. Los lenguajes informáticos engloban a los lenguajes de programación y a otros más, como por ejemplo el HTML. (lenguaje para el marcado de páginas web que no es propiamente un lenguaje de programación sino un conjunto de instrucciones que permiten diseñar el contenido y el texto de los documentos)
Historia:
La necesidad de recordar secuencias de programación para las acciones usuales llevó a denominarlas con nombres fáciles de memorizar y asociar: ADD (sumar), SUB (restar), MUL (multiplicar), CALL (ejecutar subrutina), etc. A esta secuencia de posiciones se le denominó "instrucciones", y a este conjunto de instrucciones se le llamó lenguaje ensamblador. Posteriormente aparecieron diferentes lenguajes de programación, los cuales reciben su denominación porque tienen una estructura sintáctica similar a los lenguajes escritos por los humanos

Características de un Algoritmo:
Carácter finito. "Un algoritmo siempre debe terminar después de un número finito de pasos".
Precisión. "Cada paso de un algoritmo debe estar precisamente definido; las operaciones a llevar a cabo deben ser especificadas de manera rigurosa y no ambigua para cada caso".
Entrada. "Un algoritmo tiene cero o más entradas: cantidades que le son dadas antes de que el algoritmo comience, o dinámicamente mientras el algoritmo corre. Estas entradas son tomadas de conjuntos específicos de objetos".
Salida. "Un algoritmo tiene una o más salidas: cantidades que tienen una relación específica con las entradas".
Eficacia. "También se espera que un algoritmo sea eficaz, en el sentido de que todas las operaciones a realizar en un algoritmo deben ser suficientemente básicas como para que en principio puedan ser hechas de manera exacta y en un tiempo finito por un hombre usando lápiz y papel".
Tiempo secuencial. Un algoritmo funciona en tiempo discretizado –paso a paso–, definiendo así una secuencia de estados "computacionales" por cada entrada válida (la entrada son los datos que se le suministran al algoritmo antes de comenzar).
Estado abstracto. Cada estado computacional puede ser descrito formalmente utilizando una estructura de primer orden y cada algoritmo es independiente de su implementación (los algoritmos son objetos abstractos) de manera que en un algoritmo las estructuras de primer orden son invariantes bajo isomorfismo.
Exploración acotada. La transición de un estado al siguiente queda completamente determinada por una descripción fija y finita; es decir, entre cada estado y el siguiente solamente se puede tomar en cuenta una cantidad fija y limitada de términos del estado actual.
PARTES DE UN ALGORITMO
Todo algoritmo debe obedecer a la estructura básica de un sistema, es decir: entrada, proceso y salida.
Donde:
ENTRADA: Corresponde al insumo, a los datos necesarios que requiere el proceso para ofrecer los resultados esperados.

PROCESO: Pasos necesarios para obtener la solución del problema o la situación planteada.

SALIDA: Resultados arrojados por el proceso como solución.

Diagrama de flujo:
Diagrama de flujo que expresa un algoritmo para calcular la raíz cuadrada de un número x
Los diagramas de flujo son descripciones gráficas de algoritmos; usan símbolos conectados con flechas para indicar la secuencia de instrucciones y están regidos por ISO.
Los diagramas de flujo son usados para representar algoritmos pequeños, ya que abarcan mucho espacio y su construcción es laboriosa. Por su facilidad de lectura son usados como introducción a los algoritmos, descripción de un lenguaje y descripción de procesos a personas ajenas a la computación.
Pseudocódigo
Pseudocódigo es la descripción de un algoritmo que asemeja a un lenguaje de programación pero con algunas convenciones del lenguaje natural (de ahí que tenga el prefijo pseudo, que significa falso). Tiene varias ventajas con respecto a los diagramas de flujo, entre las que se destaca el poco espacio que se requiere para representar instrucciones complejas. El pseudocódigo no está regido por ningún estándar.
Lenguaje natural
En la filosofía del lenguaje, el lenguaje natural es el lenguaje hablado o escrito por humanos para propósitos generales de comunicación, para distinguirlo de otros como puedan ser una lengua construida, los lenguajes de programación o los lenguajes usados en el estudio de la lógica formal, especialmente la lógica matemática.
El término lenguaje natural se refiere al estudio de las propiedades computacionales y de otro tipo implicadas en la comprensión, producción y uso de las lenguas naturales.

viernes, 19 de febrero de 2010

DISPOSITIVOS DE SALIDAS

Dispositivos de salida: Son instrumentos que interpretan la información y permiten la comunicación entre los seres humanos y las computadoras. Estos dispositivos convierten los resultados que produce el procesador y que están en código de máquina en una forma susceptible de ser empleada por las personas.
Los dispositivos de salida de un computador son el hardware que se encarga de mandar una respuesta hacia el exterior del computador, como pueden ser: los monitores, impresoras, sistemas de sonido, módem, entre otros. Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos del computador.
Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos del computador, algunos ejemplos de dispositivos de salida son:
 
MONITORES:
Dispositivos de salida más comunes de las computadoras con el que los usuarios ven la información en pantalla. Recibe también los nombres de CRT, pantalla o Terminal. En computación se distingue entre el “monitor”, que incluye todo el aparato que produce las imágenes, y la “pantalla”, que es sólo el área donde vemos las imágenes. Así, el dispositivo de salida es todo el monitor, no solamente la pantalla.
Toda la información (letras, gráficas y colores) de una pantalla está formada por pequeños puntos llamados pixels (Picture Elements). La unidad del sistema manda la información al monitor acerca de los píxeles que deben estar apagados (color negro) y los que deben de estar prendidos (iluminados) con un determinado color o intensidad. Así, punto por punto, se van formando las letras y las áreas iluminadas de una imagen.
Los primeros monitores de computadoras eran monocromáticos, es decir, desplegaban un solo color, generalmente verde o amarillo. Además, las imágenes tenían muy poca resolución, ya que cada píxel era muy grande. Actualmente estos monitores se pueden ver en algunas terminales de aeropuertos.
Los monitores más recientes no tienen problema en presentar gráficas, líneas y áreas de colores, además de letras de diferentes tipos y tamaños. Por esto también se les conoce como monitores gráficos.

En la actualidad hay monitores que pueden presentar 256 colores o tonos a la vez en una pantalla
 
TUBOS DE RAYOS CATÓDICOS
Prácticamente todas las computadoras de escritorio utilizan tubos de rayos catódicos o CRT. Esta tecnología consiste en un aparato colocado en la parte trasera del monitor, que proyecta imágenes sobre la pantalla. Por eso, los monitores con CRT son aparatos grandes , que necesitan de determinado espacio interno para proyectar imágenes. Sin embargo, esta tecnología es mucho más barata y eficaz que la tecnología utilizada en los monitores de computadoras portátiles.
 
MONITORES PLANOS
Este tipo de monitores son usados en la mayoría de los casos en las computadoras portátiles. Se requiere que sean aparatos ligeros y que consuman poca energía.
A continuación se mencionan los tipos de monitores planos más comunes:
· Liquid- Cristal Display (LCD): Trabajan mediante una placa de cristal líquido de cuarzo, como la de algunos relojes. Al aplicar una carga de energía eléctrica a partes de esta placa, cambian sus propiedades ópticas y es posible ver caracteres que se están desplegando. Debido a que estos dispositivos no emiten luz, es difícil ver la información, y su resolución es poca, por lo que están orientados a desplegar sólo textos y números.
· Electroluminiscencia(EL): Están fabricados con un material que al aplicarle una carga eléctrica emiten luz. Se pueden lograr diferentes tonos variando la intensidad de la carga, lo cual permite ver fácilmente la información que se está desplegando la pantalla.
· Gas- plasma: Emplean (como en una lámpara de neón) un gas al recibir una carga eléctrica emite luz. Estos monitores manejan un solo color, pero tienen mayores resoluciones y capacidad de desplegar diversas tonalidades, llegando así al estándar VGA. Sin embargo, su costo de fabricación es elevado y consumen relativamente mucha energía, lo que limita su portabilidad.
 
IMPRESORA:
Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.
Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador; Gutenberg estaría orgulloso.
Generalidades y definiciones:
Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer algunos de los conceptos básicos sobre las mismas.
Velocidad
La velocidad de una impresora se suele medir con dos parámetros:
· ppm: páginas por minuto que es capaz de imprimir;
· cps: caracteres (letras) por segundo que es capaz de imprimir.
Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.
Y aún así resulta prácticamente imposible conseguir dicha cifra; en realidad, rara vez se consiguen más de 3 ppm de texto con una impresora de tinta, si bien con una láser es más fácil acercarse a las cifras teóricas que indica el fabricante.
Resolución
Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.
Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una impresora. Así, cuando hablamos de una impresora con resolución de "600x300 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele significar que la resolución horizontal es igual que la vertical.
De cualquier modo, no todo es "tirar puntos" sobre el papel. Dos impresoras de la misma resolución teórica pueden dar resultados muy dispares, ya que también influye el tamaño de esos puntos y la precisión a la hora de colocarlos sobre el papel. De nada sirve colocar 360.000 puntos en una pulgada cuadrada si están puestos unos sobre otros emborronando la imagen.
Existen 4 tipos de impresora las cuales son:
 
INYECCIÓN DE TINTA:
Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales.
La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora.
Estas impresoras destacan por la sencilla utilización del color. Antiguamente (y todavía en algunos modelos de muy baja gama o en impresoras portátiles), para escribir cualquier cosa en color se tenía que sustituir el cartucho de tinta negra por otro con tintas de los colores básicos (generalmente magenta, cyan y amarillo). Este método tenía el inconveniente de que el texto negro se fabricaba mezclando los tres colores básicos, lo que era más lento, más caro en tinta y dejaba un negro con un cierto matiz verdoso. En la actualidad, la práctica totalidad de estas impresoras incorporan soporte para el uso simultáneo de los cartuchos de negro y de color.
La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista.
El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (HP) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki...
Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión; este sistema asegura que el cabezal siempre está en buen estado, pero encarece el precio. Existen decenas de sistemas de recarga de cartuchos para rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un engorro y se pone todo perdido de tinta.
 
IMPRESORA LÁSER:
Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva.
Crean imágenes en forma de puntos (como las de matriz de puntos) sobre un tambor, valiéndose para ello de una fuente luminosa de rayo láser. Los caracteres son tratados con un tóner magnéticamente cargado, semejante a tinta, y después transferidos del tambor al papel. Entonces se aplica calor para conseguir la adherencia de los caracteres. Esta tecnología es similar a la de las fotocopiadoras. Sus imágenes son de excelente calidad, tanto en caracteres como en gráficos. Su aplicación es para casos que requieran una salida de alta calidad. Han beneficiado la industria de la autoedición.
Las peculiares características de estas impresoras obligan a que dispongan de su propia memoria para almacenar una copia electrónica de la imagen que deben imprimir. A mayor tamaño y calidad de impresión necesitaremos mayor cantidad de memoria, que estará entorno a 1 ó 2 MB; si el documento a imprimir fuera muy largo y complejo, por ejemplo con varias fotografías o a una resolución muy alta, puede producirse un error por overflow (falta de memoria), lo que puede evitarse mediante la tecnología GDI comentada anteriormente (es decir, utilizando memoria del propio PC) o preferiblemente instalando más memoria a la impresora.
El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado.
Las láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen dispositivos con una muy alta velocidad por copia y calidad y disponibilidad superiores, así como también admiten una mayor carga de trabajo.
Una de las características más importantes de estas impresoras es que pueden llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos preparados para grupos de trabajo, hasta 40 ppm y más.
Otras características importantes son la cantidad de memoria disponible y el modelo de procesador, que suele ser de tipo RISC. La memoria es importante para actuar como "buffer" en donde almacenar los trabajos que le van llegando y para almacenar fuentes y otros motivos gráficos o de texto que permitan actuar como "preimpresos" e imprimirlos en cada una de las copias sin necesidad de mandarlos en cada página
 
IMPRESORAS DE MATRIZ Y MARGARITA:
Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos quebraderos de cabeza si su calidad no es la que sería deseable.
Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.
Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas, además de que permiten obtener copias múltiples en papel de autocopia o papel carbón.
Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada; cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, siendo casi imposible superar esta última cifra.
Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color. El uso de color implica la utilización de varias cintas o cintas más anchas, además de ser casi imposible conseguir una gama realista de colores, más allá de los más básicos.
Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, albaranes y demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa de producir un ruido ciertamente elevado, que en ocasiones llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado.
En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca Epson, con un enorme catálogo con opciones y precios para todos los gustos.
 
BOCINAS:
Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.
MULTIMEDIA:
Combinación de Hardware y Software que puede reproducir salidas que emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de sonido.
 
PLOTTERS O GRAFICADORAS::
Es una unidad de salida de información que permite obtener documentos en forma de dibujo.
Las graficadoras son dispositivos de dibujo de propósito especial para la producción de gráficas de barras, mapas, planos arquitectónicos e incluso ilustraciones tridimensionales. Puede producir documentos multicolores de alta calidad, como también documentos que por su tamaño, es imposible manejar por la mayoría de las impresoras.
Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).
Existen dos tipos de estos dispositivos:
· Flatbed plotter(trazador plano): Trazador de gráficos que dibuja en hojas de papel que han sido colocadas en un tablero. El tamaño del tablero determina el tamaño máximo de las hojas que pueden utilizarse.
· Drum plotter(Trazador de tambor): Trazador gráfico que envuelve el papel alrededor de un tambor. El tambor gira para producir una dirección de trazado, el lápiz se mueve para proporcionar la otra.
 
DATA SHOW O CAÑONES:
Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retroproyector permite la proyección amplificada de la información existente en la pantalla del operador.
Existe una variante tecnológica del data show, conocida como el cañón de proyección, que puede ser catalogada como un sistema independiente de proyección mediante lentes, muy similar a un proyector de video. Los modelos más recientes de cañones utilizan LCDs.
 
CÁMARAS
Cámara digital: Es una cámara equipada con un captador electrónico fotosensible. Las imágenes digitales son almacenadas directamente en la memoria de la cámara y pueden ser utilizadas inmediatamente después en un ordenador.
Cámara para Internet: Son aquellas que podemos observar en la parte superior del monitor de una computadora. Su utilidad no es muy grande, pero permite al usuario captar imágenes y luego almacenarlas en la memoria de la computadora. Así mismo, se usa para intercambio de imágenes por Internet ya que , si uno lo desea, puede iniciar una charla con imágenes o enviar imágenes en la red.


CONCLUSIÓN
Podemos concluir que los dispositivos de salida, se conocen también con el nombre de dispositivos periféricos o simplemente periféricos ya que normalmente, son externos a la computadora.
Además como se ha podido observar existen muchos tipos de dispositivos que utiliza la computadora y que son muy importantes para poder comunicarnos con la máquina.. Así como los diferentes tipos de impresoras que son utilizadas como dispositivos de salida.
Como pudimos observar a lo largo del trabajo, la tecnología avanza cada día más en busca de mejores cosas y mayor comodidad para el usuario.
Es por ello que debemos tener en cuenta cuales son los dispositivos periféricos y para que se utilizan para obtener un mayor aprovechamiento de cada uno de ellos y hacer nuestro trabajo más rápido y con la mayor comodidad posible.

FUENTE DE INFORMACION: http://iwia.sis.epn.edu.ec/~elascano/sistemasmultimediales/mediosytc/teclados.html.
· http://www.braunker.com/impa.htm.
· http://www.compaq.com/athome/presariohelp/sp/storage/stgitd.html.
· http://www.conozcasuhardware.com/quees/impres1.htm.
· http://www.conozcasupc.com.ar/mouse.htm.
· http://www.espe.edu.ec/cursos-e/sistemas/temas-basicos/temas-basicos-6.htm.
· http://www.ipn.mx/sitios_interes/sanlovdra/impresora1.htm.
· http://www.microsoft.com/spain/hardware/keyboard/intkey.asp.
· http://www3.labc.usb.ve/EC4514/AUDIO/MICROFONOS/Microfonos.html.
· Enciclopedia Microsoft Encarta 2003.
· Informática básica. Alcalde Eduardo García Miguel.
· Diccionario de la computación. Editorial Alfaguara. 2000

lunes, 18 de enero de 2010

UBUNTU LINUX


Richard Rojas

Ubuntu Linux.

Es una distribución Linux basada en Debian GNU/Linux, cuyo nombre proviene de la ideología sudafricana Ubuntu ("humanidad hacia otros").
Proporciona un sistema operativo actualizado y estable para el usuario promedio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto.
Ubuntu está patrocinando por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo y vendiendo soporte técnico. Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar el talento de los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para tres derivaciones de Ubuntu: Kubuntu, Edubuntu y la versión de Ubuntu orientada a servidores ("Ubuntu Server Edition").
Cada seis meses se libera una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años, reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.
Ubuntu fue seleccionado por los lectores de desktoplinux.com como una de las distribuciones más populares, llegando a alcanzar aproximadamente el 30% de las instalaciones de Linux en computadoras de escritorio tanto en 2006 como en 2007.
La versión actual de Ubuntu, 9.10 ("Karmic Koala"), se liberó el 29 de octubre de 2009 y la próxima versión, 10.04 (nombre en código: Lucid Lynx), se espera que vea la luz en abril de 2010.
Historia:

El 8 de julio de 2004, Mark Shuttleworth y su empresa Canonical Ltd. anunciaron la creación de la distribución Ubuntu bajo el eslogan “Linux for Human Beings“. Ésta tuvo una financiación inicial de 10 millones de dólares (US$). El proyecto nació por iniciativa de algunos programadores que se encontraban decepcionados con la manera de operar de Debian GNU/Linux, la distribución GNU/Linux sin ánimo de lucro más popular del mundo.
Tras formar un grupo multidisciplinario, los programadores decidieron buscar el apoyo económico de Mark Shuttleworth, un emprendedor sudafricano que vendió la empresa Thawte a VeriSign, cuatro años después de fundarla en el garaje de su domicilio, por 575 millones de dólares estadounidenses (US$).
Shuttleworth vio con simpatía el proyecto y decidió convertirlo en una iniciativa auto sostenible, combinando su experiencia en la creación de nuevas empresas como esas. Mientras los programadores armaban el sistema, Shuttleworth aprovechó la ocasión para aplicar una pequeña campaña de mercadotecnia para despertar interés en la distribución sin nombre (en inglés: "the no-name-distro").
Tras varios meses de trabajo y un breve período de pruebas, la primera versión de Ubuntu (Warty Warthog) fue lanzada el 20 de octubre de 2004

Versiones:

En octubre de 2004 se liberó la primera versión de la distribución, Ubuntu 4.10 Warty Warthog. Su nombre se debe a que fue publicada “warts and all” (con verrugas y todo). El escritorio era de un color bastante oscuro, el naranja y el marrón simbolizaban las tribus sudafricanas. Un motivo por el que Ubuntu se puso en la cabeza desde su comienzo fue el Live CD, que ofrecía a los usuarios el poder probar Ubuntu sin necesidad de instalarlo.
Seis meses más tarde, como se prometió, llegó Ubuntu 5.04 Hoary Hedgehog. Los colores del escritorio cambiaron ligeramente pero aún eran bastante oscuros respecto a los actuales. El Live CD fue mejorado y extendido a las versiones de x86-64 y Power PC. En abril del 2005, Ubuntu había madurado y dió a luz una nueva distribución llamada Kubuntu. Fue construida por la Fundación Ubuntu pero en lugar de usar GNOME como entorno de escritorio, Kubuntu usaba KDE.
Ubuntu comenzó a aumentar su número de usuarios rápidamente, además de conseguir mucha aceptación en la comunidad de Linux. Con la llegada de Ubuntu 5.10 Breezy Badger vino también el nacimiento de Edubuntu, una tercera distribución de Linux orientada al ámbito de la educación. También se incluyó soporte de servidor para Ubuntu. La distribución Kubuntu reemplazó Synaptic (gestor de paquetes) por Adept y se convirtió en la primera en usar devtags para una búsqueda más rápida de aplicaciones para Adept.
Sin embargo el ritmo de liberaciones se rompió y Ubuntu 6.06 LTS Dapper Drake se convirtió en la primera versión que no cumplía los 6 meses de rigor debido a la intención de hacer un sistema al que proporcionar un soporte extendido con garantías. Otras mejoras fueron: una disminución en el tiempo de carga del sistema, un apagado gráfico, una nueva herramienta de actualización y una mejor reproducción de vídeo. La red siempre había sido delicada de montar pero el nuevo Network Manager hizo las cosas más fáciles. OpenOffice 2.0.2 pasaría a instalarse por defecto. Sumado a todo esto nace Xubuntu, una nueva hermana de Ubuntu que usaba el escritorio Xfce y estaba dirigida al uso en equipos antiguos.
Con un tiempo de arranque y apagado de sistema más rápido y la integración de TomBoy y F-Spot, Ubuntu 6.10 Edgy Eft simbolizaba una transición de Dapper Drake a la inminente Feisty Fawn. El artwork en Ubuntu pasó a ser más ligero y agradable a la vista. Kubuntu añadió un software de gestión de fotos, digiKam; se rediseñó el panel de configuración de sistema; y se mejoraron los botones y el soporte de control de batería de los portátiles.
Restablecido el ciclo normal de lanzamientos, Ubuntu 7.04 Feisty Fawn apareció con nuevas características de servidor incluyendo nuevos métodos que proporcionan facilidades para la instalación de codecs multimedia y controladores binarios, así como mejoras de red, el novedoso asistente de migración de Windows y la incorporación del controlador ntfs-3g por defecto, descubrimiento de servicios de red con Avahi que permitía, entre otras cosas, compartir música vía DAAP al igual que en iTunes.
El 18 de octubre de 2007, Ubuntu 7.10 Gutsy Gibbon incluía mayor seguridad gracias al AppArmor security framework, una mayor velocidad en la búsqueda de archivos, un administrador de complementos de Firefox, una herramienta de configuración gráfica para el X.org y un soporte mejorado del sistema de archivos NTFS. Además se activó por defecto Compiz y se añadió una interfaz más rápida para el cambio de usuario.
La segunda versión de soporte extendido (LTS) llegó el el 24 de abril de 2008. Ubuntu 8.04 LTS Hardy Heron presentaba algunas novedades entre las que destabacan: la inclusión por defecto de nuevas aplicaciones como: Tracker, Brasero, Transmission, Vinagre VNC, PulseAudio. Además se hizo posible el tener acceso al Active Directory usando Likewise Open y fue la primera versión que incluye el instalador Wubi en el Live CD que permite instalar la distribución como un programa de Windows sin necesidad de hacer ninguna partición en el disco duro.
La novena versión de Ubuntu apareció un 30 de octubre de 2008 bajo el nombre Intrepid Ibex. Ubuntu 8.10 destacaba por sus mejoras como: una cuenta de invitado, interacción escalable entre el escritorio y el dispositivo móvil, mejora de la conectividad con Internet, un directorio privado y cifrado para los usuarios, la posibilidad de crear un Live USB y la esperada recompilación automática de los controladores del núcleo gracias a la herramienta DKMS.
El 23 de abril de 2009, Ubuntu 9.04 Jaunty Jackalope vio la luz con importantes avances como una disminución drástica del tiempo de inicio del sistema, acceso casi inmediato al sacar al equipo de un estado de suspensión/hibernación, soporte para tarjetas de red 3G y una mejora de acceso a redes inalámbricas. Además, la inclusión del núcleo Linux 2.6.28, permitió ofrecer el novedoso sistema de archivos EXT4 de forma opcional y la aceleración EXA para las tarjetas gráficas ATI, proporcionando una mejor experiencia en aceleración gráfica.
El 29 de octubre de 2009, se publica la versión 9.10 Karmic Koala ; a partir de la décimoprimera edición de Ubuntu el sistema operativo se concentra en la mejora de la computación en nube (cloud computing) utilizando la plataforma Eucalyptus, además se integra con Ubuntu One un nuevo servicio que permite almacenar, sincronizar y compartir archivos en línea entre equipos con Ubuntu. También ofrece un mejor soporte para Ubuntu Netbook Remix y da soporte a Moblin y Android. El sistema funciona con el núcleo Linux 2.6.31, utiliza GNOME 2.28 y con el sistema de archivos ext4 por defecto
Características
Ubuntu MID Edition, diseñado para dispositivos embebidos.
Ubuntu soporta oficialmente dos arquitecturas de hardware: Intel x86, AMD64; sin embargo ha sido portada extraoficialmente a cinco arquitecturas más: PowerPC, HP PA-RISC, SPARC, IA-64 y Playstation 3. A partir de Ubuntu 9.04 (abril de 2009) se empezó a ofrecer soporte oficial para procesadores ARM. Al igual que cualquier distribución basada en GNU/Linux, Ubuntu es capaz de actualizar a la vez todas las aplicaciones instaladas en la máquina a través de repositorios, a diferencia de otros sistemas operativos propietarios, donde esto no es posible.
Esta distribución ha sido y está siendo traducida a más de 130 idiomas, y cada usuario es capaz de colaborar voluntariamente a esta causa, a través de Internet.
Los desarrolladores de Ubuntu se basan en gran medida en el trabajo de otros proyectos de software libre y código abierto, pero en especial en el de la comunidad de Debian.
Ubuntu y la comunidad
Cualquier usuario que conozca el idioma inglés y tenga una conexión a Internet, es capaz de presentar sus ideas para las futuras versiones de Ubuntu en la página wiki oficial de la comunidad del proyecto.
En febrero de 2008 se puso en marcha la página "Brainstorm" que permite a los usuarios proponer sus ideas y votar las del resto. También se informa de cuales de las ideas propuestas se están desarrollando o están previstas.
Ubuntu no cobra honorarios por la suscripción de mejoras de la "Edición Enterprise".
El ciclo de lanzamiento de Ubuntu
Ciclo de lanzamiento de Ubuntu.
Las versiones estables se liberan cada 6 meses y se mantienen actualizadas en materia de seguridad hasta 18 meses después de su lanzamiento. La nomenclatura de las versiones no obedece principalmente a un orden de desarrollo, se compone del dígito del año de emisión y del mes en que esto ocurre. La versión 4.10 es de octubre de 2004, la 5.04 es de abril de 2005, y así sucesivamente.
De forma sincronizada a la versión 6.06 de Ubuntu, apareció por primera vez la distribución Xubuntu, basada en el entorno de escritorio XFce.
Desde su inicio proyecto Ubuntu se ha comprometido a un ciclo de lanzamiento y ha logrado cumplir con ese compromiso sin falta. Es la regularidad y la fiabilidad de estas versiones de Ubuntu que hace una gran opción para los usuarios y las empresas que pueden planear las actualizaciones y las nuevas instalaciones con una fiabilidad que es muy inusual en el mercado de los sistemas operativos. Este diagrama da nuestro compromiso a largo plazo de las emisiones y pone de manifiesto la diferencia fundamental entre un apoyo a largo plazo, la liberación y nuestro nivel de prensa.

El software que incluye Ubuntu
Posee una gran colección de aplicaciones prácticas y sencillas para la configuración de todo el sistema, a través de una interfaz gráfica útil para usuarios que se inician en Linux. El entorno de escritorio oficial es GNOME y se sincronizan con sus liberaciones. Existe una versión con KDE, llamada Kubuntu, y con otros escritorios, que pueden añadirse una vez instalado el Ubuntu oficial con GNOME. El navegador web oficial de Ubuntu es Mozilla Firefox.
El sistema incluye funciones avanzadas de seguridad y entre sus políticas se encuentra el no activar, de forma predeterminada, procesos latentes al momento de instalarse. Por eso mismo, no hay un firewall predeterminado, ya que no existen servicios que puedan atentar a la seguridad del sistema.
Para labores/tareas administrativas en terminal incluye una herramienta llamada sudo, con la que se evita el uso del usuario administrador.
Posee accesibilidad e internacionalización, de modo que el software está disponible para tanta gente como sea posible. En la versión 5.04, el UTF-8 es la codificación de caracteres en forma predeterminada.
No sólo se relaciona con Debian por el uso del mismo formato de paquetes deb, también tiene uniones muy fuertes con esa comunidad, contribuyendo con cualquier cambio directa e inmediatamente, y no sólo anunciándolos. Esto sucede en los tiempos de lanzamiento. Muchos de los desarrolladores de Ubuntu son también responsables de los paquetes importantes dentro de la distribución Debian.
Para centrarse en solucionar rápidamente los bugs, conflictos de paquetes, etc. se decidió eliminar ciertos paquetes del componente main, ya que no son populares o simplemente se escogieron de forma arbitraria por gusto o sus bases de apoyo al software libre. Por tales motivos inicialmente KDE no se encontraba con más soporte de lo que entregaban los mantenedores de Debian en sus repositorios, razón por la que se sumó la comunidad de KDE distribuyendo la distribución llamada Kubuntu.
Instalación
Inicio de Ubuntu 8.04 en su versión para servidores.
Todos los lanzamientos de Ubuntu se proporcionan sin costo alguno. Los CD de la distribución se envían de forma gratuita a cualquier persona que los solicite mediante el servicio ShipIt (una excepción fue la versión 6.10, la cual no se llegó a distribuir de forma gratuita en CD).
También es posible descargar las imágenes ISO de los discos por descarga directa o a través de redes P2P y archivos torrents, evitando así la sobrecarga de los servidores.
Ubuntu está opcionalmente disponible en DVD, para evitar su dependencia de Internet.
CD de instalación de escritorio, Ubuntu 8.04.
CD de instalación de escritorio o live CD
El CD de escritorio, más comúnmente llamado live CD, permite probar Ubuntu sin hacer cambios en el equipo y agrega una opción para instalarlo permanentemente más tarde. Este tipo de CD es el más requerido por los usuarios. Se necesita al menos 384 MB de memoria RAM para realizar la instalación desde este CD.
Instalación de Ubuntu 9.10 desde Live CD.
CD de instalación alternativo
El CD de instalación alternativa permite ejecutar ciertas instalaciones especializadas de Ubuntu. Este CD se provee para las siguientes situaciones:
Creación de sistemas OEM pre-configurados
Configuración automatizada de despliegues
Actualización desde instalaciones anteriores sin acceso a la red
Particionamiento LVM y/o RAID.
El instalador a modo de texto permite que funcione en sistemas de entre 128 y 256MB de memoria RAM, lo que supone una reducción respecto a los requisitos del live CD.
CD de instalación mediante red
Este CD, también llamado Minimal CD, se graba desde una imagen ISO que solo ocupa en promedio 10Mb. La imagen contiene los paquetes necesarios para descargar el sistema base desde los repositorios oficiales de Canonical y luego muestra una pantalla donde se puede elegir la interfaz gráfica de usuario. Éste método de instalación es igual al de un CD alternativo, solo que descarga los paquetes de los repositorios.
CD de instalación de servidor
Este CD de instalación permite instalar Ubuntu permanentemente en una computadora usada como servidor. No instalará una interfaz gráfica de usuario.
Otras instalaciones
Live CD/DVD personalizado: existen herramientas como remastersys, Ubuntu Customization Kit o Reconstructor que permiten a cualquiera crear fácilmente un Live CD/DVD personalizado de una instalación existente de Ubuntu.
Live USB: una herramienta, incluida en el CD desde Ubuntu 8.10, permite la creación de un Live USB de la distribución de modo que se pueda cargar el sistema desde una memoria USB permitiendo guardar datos en el mismo y sin necesidad de gastar un CD pero con la limitación de que este solo puede arrancar en un PC cuya placa base soporte arranque desde un medio USB.
Wubi: un instalador libre y oficial de Ubuntu para sistemas operativos Windows, licenciado bajo GPL. El programa está presente en los últimos LiveCD's de Ubuntu, aunque es posible descargarlo de la página oficial. El objetivo del proyecto es permitir que usuarios de Windows no acostumbrados a Linux puedan probar Ubuntu sin el riesgo de perder información durante un formateo o particionado. Wubi también permite desinstalar Ubuntu desde Windows como si de un programa se tratase.
Organización de paquetes
Sistema de gestión de paquetes Synaptic.
El Centro de software de Ubuntu. Aplicación para instalar y remover software en Ubuntu 9.10
Ubuntu divide todo el software en cuatro secciones, llamadas componentes, para mostrar diferencias en licencias y la prioridad con la que se atienden los problemas que informen los usuarios. Estos componentes son: main, restricted, universe y multiverse.
Por omisión, se instala una selección de paquetes que cubre las necesidades básicas de la mayoría de los usuarios. Los paquetes del componente universe de Ubuntu generalmente se basan en los paquetes de la rama inestable (Sid) y en el repositorio experimental de Debian.
1. El componente main
El componente main contiene solamente los paquetes que cumplen los requisitos de la licencia de Ubuntu, y para los que hay soporte disponible por parte de su equipo. Éste está pensado para que incluya todo lo necesario para la mayoría de los sistemas Linux de uso general. Los paquetes de este componente poseen ayuda técnica garantizada y mejoras de seguridad oportunas.
2. El componente restricted
El componente restricted contiene el programa soportado por los desarrolladores de Ubuntu debido a su importancia, pero que no está disponible bajo ningún tipo de licencia libre para incluir en main. En este lugar se incluyen los paquetes tales como los controladores propietarios de algunas tarjetas gráficas, como por ejemplo, los de ATI y nVIDIA. El nivel de la ayuda es más limitado que para main, puesto que los desarrolladores puede que no tengan acceso al código fuente.
3. El componente universe
El componente universe contiene una amplia gama de programas, que pueden o no tener una licencia restringida, pero que no recibe apoyo por parte del equipo de Ubuntu sino por parte de la comunidad. Esto permite que los usuarios instalen toda clase de programas en el sistema guardándolos en un lugar aparte de los paquetes soportados: main y restricted.
4. El componente multiverse
Finalmente, se encuentra el componente multiverse, que contiene los paquetes sin soporte debido a que no cumplen los requisitos de software libre.
Lanzamientos
Cada lanzamiento de Ubuntu posee un nombre en clave, como también un número de versión basado en el año y el mes del lanzamiento. Por ejemplo, la versión 5.04 fue lanzada en abril (04) de 2005 (5). Cada versión de Ubuntu es lanzada con seis meses de diferencia con respecto al último lanzamiento, aunque el lanzamiento de la versión 6.06 se demoró más de seis meses por problemas técnicos.
Canonical proporciona ayuda técnica y actualizaciones de la seguridad para la mayoría de las versiones de Ubuntu durante 18 meses, excepto para las versiones LTS (Long term support) que ofrece 3 años para la versión escritorio y 5 años para la versión servidor, a partir de la fecha del lanzamiento.
Versión
Soportada
Fecha de lanzamiento
Nombre en clave
Fin del soporte técnico
Novedades
4.10
Sin soporte
Warty Warthog
- Primer lanzamiento.- Soporte para x86, x86-64 y PowerPC.- Servicio de envío de CDs.
5.04
Sin soporte
Hoary Hedgehog
- Inclusión del gestor de actualizaciones.- Compatibilidad con Kickstart.- Mejorado el soporte para portátiles.
5.10
Sin soporte
Breezy Badger
- Barra de progreso en la carga del sistema.- Soporte para instalación OEM. -- GCC 4.0.
6.06LTS
Soportada (versión servidor)
Dapper Drake
Junio de 2009 (desktop) y junio de 2011 (server)
- Primera en ser distribuida en un sólo CD las versiones Live-CD e instalable.- LTS (Long Term Support).- Instalación gráfica por defecto.
6.10
Sin soporte
Edgy Eft
- Upstart.- Reporte automático de errores.
7.04
Sin soporte
Feisty Fawn
Octubre de 2008
- Asistente de migración.- KVM- Facilidades en la instalación de códecs y controladores propietarios.- GNOME Control Center.- Efectos de escritorio.- Fácil configuración de redes wireless (WPA soportado).- Se deja oficialmente de dar soporte para PowerPC.
7.10
Sin soporte
Gutsy Gibbon
Abril de 2009
- Compiz por defecto.- eBox para administración de servidores.- Instalación desatendida.- Cambio rápido de usuario.- AppArmor.- Herramienta de configuración gráfica para X.Org.- Sistema de impresión renovado.- Soporte a particiones NTFS (controlador NTFS-3G).
8.04LTS
Soportada
Hardy Heron
Abril de 2011 (desktop) y abril de 2013 (server)
- LTS (Long Term Support).- Mejor integración con Tango.- Mejoras en la integración con Compiz Fusion.- Integración de Tracker.- Brasero, Transmission y Vinagre por defecto.- PulseAudio por defecto.- Wubi disponible en el CD.
8.10
Soportada
Intrepid Ibex
Abril de 2010
- Tema de escritorio alternativo rediseñado. - Habilidad para aprovechar el ancho de banda donde sea que se encuentre el usuario (internet omnipresente).- Mejoras en el soporte para todo tipo de computadora de escritorio: desde una máquina de trabajo actual (doble núcleo, chipsets avanzados, gigas en memoria y disco duro) hasta escritorios con Pentium III.- Soporte 3G- Sesión de invitados.- Cifrado de carpetas.
9.04
Soportada
Jaunty Jackalope
Octubre de 2010
- Mejores tiempos de arranque.- Mejor integración con servicios web.- Migración a Bazaar.- Mejoras importantes en la interfaz gráfica de usuario.- Novedoso sistema de notificaciones- Soporte opcional para el nuevo sistema de archivos Ext4.- Control de volumen rediseñado. Canonical incorpora Ubuntu Netbook Remix para las ediciones de abril de 2009.
9.10
Actual
Karmic Koala
Abril de 2011
- Mejores tiempos de arranque (máximo 10 segundos).- Mejoras en la integración de tecnologías Moblin para Netbook.- Adopción de Cloud Computing abierto, por medio de las APIs EC2 de Amazon (Server).- Mejoras importantes en la interfaz gráfica de usuario.- Extensión de las características de suspender/reanudar para la edición servidor.- GRUB 2 como nuevo gestor de arranque.- Ubuntu Software Center como sistema de instalación de aplicaciones y actualizaciones del sistema.- Se cambia el arranque gráfico a Xsplash.- Sistema de archivos Ext4 por defecto.- Mensajería instantánea Empathy por defecto.- Nueva arquitectura UXA en el driver de video Intel.- GCC 4.4 como compilador por defecto.- Nueva versión del kernel linux (2.6.31).
10.04LTS
Anunciada
29 de Abril de 2010
Lucid Lynx
Abril de 2013 (desktop) y abril de 2015 (server)

Existen planes para lanzar una rama de Ubuntu bajo el nombre en clave "Grumpy Groundhog", la cuál solo estará disponible para desarrolladores.
Soporte técnico a largo plazo
Cada 4 versiones de Ubuntu se libera una versión con soporte técnico a largo plazo a la que se añade la terminación "LTS" (en inglés Long Term Support). Esto significa que los lanzamientos LTS contarán con actualizaciones de seguridad de paquetes de software durante tres años en entorno de escritorio y cinco años en servidor por parte de Canonical, a diferencia de los otros lanzamientos de Ubuntu que sólo cuentan con 18 meses de soporte.
La primera LTS fue la versión 6.06, cuyo nombre en clave es "Dapper Drake". De esta versión se publicaron una remasterización (la 6.06.1) para la versión de escritorio y dos remasterizaciones (6.06.1 y 6.06.2) para la versión servidor, ambas incluían actualizaciones de seguridad y corrección de errores.
La segunda LTS fue la versión 8.04 "Hardy Heron", de la cual ya va por la tercera revisión de mantenimiento (la 8.04.3).
Lanzamiento actual
El lanzamiento de la versión 9.10 "Karmic Koala" presenta las siguientes características y novedades:
Ubuntu - GNOME 2.28
Kubuntu - KDE 4.3.2
Xubuntu - Xfce 4.6.1
Integración de Ubuntu One para "computación en la nube".
Actualización del gestor de arranque GRUB 2.
Ubuntu Software Center (Centro de software de Ubuntu) comienza su proceso de integración como herramienta para instalar aplicaciones y actualizar el sistema.
Mejoras en la interfaz gráfica, rediseño de la pantalla de carga del sistema gracias a Xsplash, y la ventana de entrada del usuario es renovada.
Mejoras en el instalador de Ubuntu, con mensajes e imágenes de las aplicaciones mientras se instala el sistema.
Mejor integración con el emulador de aplicaciones de Windows, conocido como Wine.
Empathy reemplaza a Pidgin como cliente de mensajería instantánea.
Arquitectura de video UXA en el driver de video Intel.
Reducción significativa en el tiempo de arranque del sistema.
Soporte para la instalación por defecto usando el sistema de archivos ext4.
Cifrado completo del directorio /home.
Requisitos del sistema
Segun la documentación oficial el sistema tendría que estar funcionando si cumple con estas especificaciones.
Procesador: 300 MHz x86.
Memoria RAM: 64 MB.
Disco Duro: 4GB (para una instalación completa con swap incluida).
Tarjeta gráfica VGA.
Lector de CD-ROM o tarjeta de red.
En el anterior equipo ya es posible realizar una instalación a modo servidor, sin embargo es poco probable que lo haga de manera fluida en una computadora de escritorio por lo que las especificaciones recomendadas son:
Procesador: 700 MHz x86.
Memoria RAM: 384 MB.
Disco duro: 8GB.
Tarjeta gráfica capaz de soportar una resolución de 1024x768.
Tarjeta de sonido.
Conexión a Internet.
Y si se quiere disponer de los efectos visuales proporcionados por Compiz entonces la potencia del procesador asciende a 1.2 GHz y es necesario disponer de una de las tarjetas gráficas soportadas.
Ubuntu Certified Professional
En el año 2006 Canonical Ltd. y Linux Professional Institute firman un acuerdo para proveer un examen específico de Ubuntu, Ubuntu Certified Professional que permita certificar los conocimientos de los profesionales de Ubuntu.
Los requisitos para ser Ubuntu Certified Professional son:
Tener el nivel LPIC-1 (acredita conocimientos Linux independientes de la distribución)
Realizar el examen específico de Ubuntu (LPI 199)
Los exámenes de certificación habilitan a los estudiantes para:
Instalación y configuración de sistemas Ubuntu.
Realizar tareas de administración de rutina: arrancar y apagar el sistema, administrar cuentas de usuario y sistemas de archivos, y mantener la seguridad del sistema.
Configurar la conectividad de red y de los principales servicios de red.
Trabajo productivo en la línea de comandos de Linux.
Variantes
Categoría principal: Distribuciones basadas en Ubuntu
Configuración por omisión del entorno de escritorio de Xubuntu 8.10.
Escritorio de Ubuntu Netbook Remix 9.10
Existen diversas variantes de Ubuntu disponibles, las cuales poseen lanzamientos simultáneos con Ubuntu. Las más significativas son:
Kubuntu, que utiliza KDE en vez de GNOME.
Edubuntu, diseñado para entornos escolares (que a partir de la versión 8.04 es un paquete agregado dejando de existir como distribución aparte).
Xubuntu, el cual utiliza el entorno de escritorio Xfce.
Ubuntu Netbook Remix, creada para las máquinas netbook.
Ubuntu Studio, diseñada para el trabajo con multimedia, aunque no es un proyecto reconocido oficialmente por Ubuntu. Otra variante similar es ArtistX.
Tiflobuntu, es una versión de Ubuntu para personas ciegas y con visión reducida. Funciona mediante línea braille.
Kubuntu Netbook Edition, igualmente creada para maquinas netbook con interfaz KDE
Kubuntu, Edubuntu, Xubuntu y Gobuntu son proyectos oficiales de la Fundación Ubuntu. Kubuntu también se encuentra incluido dentro del programa ShipIt. Edubuntu dejó de incluirse en la versión Intrepid Ibex.
Anécdotas
Los nombres de Ubuntu
Desde sus inicios, cada una de las versiones de este sistema operativo ha tenido un apodo compuesto por un animal y un adjetivo relativo al mismo que empiece por su misma letra (Warty Warthog o Hoary Hedgehog..). Además, desde su versión 6.06, Dapper Drake, estos nombres han seguido una progresión por orden alfabético, siendo la 6.10 Edgy Eft, la 7.04, Feisty Fawn, y de ahí en adelante hasta su versión más actual, 9.10 Karmic Koala.
Ubuntu en las empresas
Una de las múltiples distribuciones GNU/Linux que usa Google en escritorio es una derivada de Ubuntu a la que denominaron Goobuntu (no confundir con Gobuntu).
En octubre de 2008, Wikipedia migró sus servidores a Ubuntu Server.
WorksWithU es un directorio donde se encuentran registradas las empresas, universidades, comercios y demás que utilizan Ubuntu. Esta lista se actualiza con una frecuencia semanal.
Ubuntu-calendar
Una de las imágenes de Ubuntu Calendar.
Ubuntu tenía un paquete llamado "ubuntu-calendar" que cuando se instalaba, se conectaba con los servidores de Ubuntu para realizar una transferencia de fondos de escritorio de manera mensual junto con las actualizaciones del sistema. Algunos de estos fondos de escritorio mostraban imágenes artísticas, entre las que se incluían gente desnuda. Ello dio lugar a que Ubuntu fuera conocido humorísticamente como "la distribución pornográfica", "Linuxxx" y otros nombres similares.
Actualmente, este paquete ya no se encuentra disponible en los repositorios.
«Ubuntu es software libre»
Aunque las carátulas se imprimen en inglés, a partir de la versión 5.10 se incluyó el texto Ubuntu is software libre, usando la palabra en español libre, para eliminar la ambigüedad del término free (del inglés free software) que puede significar tanto libre como gratis.
La existencia de software no libre en los repositorios de Ubuntu (concretamente en los componentes restricted y multiverse), además de firmware no libre en el núcleo Linux dio lugar a derivaciones no oficiales y rigurosamente libres de software no libre entre las que destaca gNewSense.
Como respuesta a esto, el 10 de julio de 2007 se anunció Gobuntu, una derivación oficial de Ubuntu caracterizada por "una visión ultra-ortodoxa de licenciamiento: sin firmwares, controladores, imágenes realizadas previamente, sonidos, aplicaciones, u otro contenido que no incluya completamente las fuentes y venga con todos los derechos de modificación, remezclado y redistribución."
Sin embargo, después del lanzamiento de Hardy Heron, el desarrollo de Gobuntu quedó descontinuado y se anunció que pasaría a funcionar como una opción de instalación de "sólo software libre" en Ubuntu y no una distribución independiente