martes, 1 de diciembre de 2009



Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.Nota: Excepto para elementos con fotos, los elementos se toman como colecciones de caracteres--letras, números y signos de puntuación--cada uno 1 byte. Un documento formateado ocupa mucho más espacio.La palabra "byte" tiene numerosos significados íntimamente relacionados:Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.Historia .El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la nociónde que era una tupla de n bits y que se permitían otros tamaños.Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en Redes Informáticas y Telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses.La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.

lunes, 30 de noviembre de 2009

+ TERABYTE


Un terabyte es una unidad de medida de almacenamiento de datos cuyo símbolo es TB y puede equivaler a 1024 GB.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (computer science) y en programación (computer programming) y, la mayor parte del software, emplea también esta definición.[cita requerida]
Un disco duro o partición de un terabyte formateada con NTFS en Windows XP mostrará 931 gigabytes libres.[1]
Diferencia entre 1000 y 1024 Terabyte [editar]
Para clarificar la diferencia entre los prefijos decimal y binario la Comisión Internacional de Electrotécnica (I.E.C.), una corporación estándar, definió en 1998 nuevos prefijos usando la combinación del Sistema Internacional de Medidas prefijo SI con la palabra "binary" (vea prefijo binario), así que si nos referimos a binario, éste es nombrado por la IEC como tebibyte (TiB) mientras que si nos referimos a decimal entonces la IEC lo llama terabyte. Cabe decir que esta nomenclatura no ha sido aún ampliamente adoptadas.
cantidad de bytes que posee un terabyte.

Es simple logica matematica
1 KB= 1024 BYTE
1 MB= 1024 KB O KILOBYTES
1 GB= 1024 MB O MEGABYTES
1 TB= 1024 GB O GIGABYTES
Asi mismo elevando el digito 1024^4 obtendremos la cantidad de bytes que hay en un TB o terabyte.
1024*1024*1024*1024= 1,099,511,627,776.Un Terabyte es una unidad de medida de memoria (2 elevado a 40) aproximadamente igual a un trillón de bytes (realmente 1.099.511.627.776 bytes). Un Terabyte es igual a 1.000 gigabytes.

MEGABYTE


El megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 Octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte, ya que los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los grandes archivos grandes, etc. La capacidad de almacenamiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Se distingue del megabit (1.000.000 bits), con abreviación de Mbit o Mb (la "b" minúscula). Hay 8 bits en un octeto; por lo tanto, un megabyte (MB) es ocho veces más grande que un megabit (Mb).
1024 byte = 1 kilobyte
1024 kilobyte= 1 megabyte
1024 megabyte = 1 gigabyte
1024 gigabyte =1 terabyte
1024 terabyte = 1 petabyte
1024 petabyte= 1 exabyte
1024 exabyte = 1 zettabyte
1024 zettabyte = 1 Yottabyte
1024 Yottabyte = 1 Brontobyte
1024 Brontobyte = 1 geopbyte
"o"
8bit=1Byte
1024Bytes=1KB (KiloBytes) ó 8192 bits.
1024KB=1MB (MegaBytes) ó 1.048.576 bytes.
1024MB=1GB (GigaBytes) ó 1,073'741,824 bytes.

(MB, mbyte) Unidad que sirve para medir cantidad datos informáticos.Sirve para medir tamaño de archivos, capacidad de almacenamiento, velocidad de transferencia de datos (al agregarle una unidad de tiempo, generalmente segundos), etc.(definición tradicional)Un megabyte equivale exactamente a 1024 KB (kilobytes) o a 1.048.576 bytes.1024 (MB) megabytes equivalen a 1 GB.Para redondear se suele decir que un megabyte equivale a un millón de bytes.

+ KILOBITE


Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y equivale a 210 bytes (valor aplicando la definición de prefijo binario, aceptado por todo sistema operativo que se haya creado hasta la fecha) o a 103 bytes (valor aplicando la definición del Sistema Internacional de Unidades). Los Ordenadores de 8 bits tienen una capacidad máxima (sin paginación de memoria) de 64 K, o 65536 bytes (o a 216 bytes). El IBM PC original soportaba un máximo de 256 Kilobytes y los compatible IBM PC, tenían una capacidad máxima de 640 KB en el sentido binario, o 655.360 caracteres de datos.El término kilobyte se utilizó al principio debido a que 210 es aproximadamente 1000 (exactamente es 1024). Cuando las computadoras empezaron a ser cada vez más potentes, lamentablemente el mal uso del prefijo del Sistema Internacional de Unidades se difundió desde la jerga de los profesionales de la computación al léxico popular, lo que creó mucha confusión, ya que realmente no se debería usar el término kilobyte, que significa exactamente ‘1000 bytes’ y no ‘1024 bytes’. Se inventó[1] entonces el término kibi, que significaría 1024, produciendo entonces la medida kibibyte (1 KiB=1024 bytes). Pero todavía no se ha difundido su uso. Dentro de este mismo paquete de unidades estaría el mebibyte (1 MiB = 220, similar al megabyte: 106 o millón) y el gibibyte (1 GiB = 230, similar al gigabyte: 109) Algunos han sugerido que se debería utilizar el prefijo K con mayúsculas para distinguir esta cantidad del prefijo del SI, pero este tema aún no se ha normalizado. Además esto no se podría extender a otros prefijos mayores, ya que por ejemplo en el caso del MB (megabyte), el SI ya utiliza tanto la M mayúscula (mega: millón) como la minúscula (mili: milésima).Un Kilobyte (abreviado como KB o Kbyte) es una unidad de medida equivalente a mil bytes de memoria de ordenador o de capacidad de disco. Por ejemplo, un dispositivo que tiene 256K de memoria puede almacenar aproximadamente 256.000 bytes (o caracteres) de una vez. En sistemas decimales, kilo significa 1.000, pero el mundo de los ordenadores se basa en un sistema binario de dos en vez de diez. Así pues, un kilobyte es realmente 1.024 (210) bytes. Para distinguir entre una K decimal (1.000) y una K binaria (1.024), el IEEE ha sugerido usar una k minúscula para un kilo decimal y una K mayúscula para un kilo binario.

+ BYTE


Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit). Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho. Nota: Excepto para elementos con fotos, los elementos se toman como colecciones de caracteres--letras, números y signos de puntuación--cada uno 1 byte. Un documento formateado ocupa mucho más espacio.La palabra "byte" tiene numerosos significados íntimamente relacionados: Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua. Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisys) direccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits. Historia .El término byte fue acuñado por Waner Buchholz en 1957 durante las primeras fases de diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos típicos de E/S de este periodo utilizaban unidades de seis bits. Un tamaño fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el IBM S/360. El término "byte" viene de "bite" (en inglés "mordisco"), como la cantidad más pequeña de datos que un ordenador podía "morder" a la vez. El cambio de letra no solo redujo la posibilidad de confundirlo con "bit", sino que también era consistente con la afición de los primeros científicos en computación en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la nociónde que era una tupla de n bits y que se permitían otros tamaños.Los bytes de 8 bits a menudo se llaman octetos en contextos formales como los estándares industriales, así como en Redes Informáticas y Telecomunicaciones para evitar confusiones sobre el número de bits implicados. Sin embargo, los bytes de 8 bits se integran firmemente en estándares comunes como Ethernet y HTML. Un octeto es también la palabra utilizada para la cantidad de ocho bits en muchos lenguajes no ingleses. La mitad de un byte de ocho bits se llama nibble o un dígito hexadecimal. El nibble a menudo se llama semiocteto en redes o telecomunicaciones y también por algunas organizaciones de estandarización. Además, una cantidad de 2 bits se llama crumb, aunque raramente se utiliza.

+ BIT


Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representEl bit es la unidad mínima de información empleadaen informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).ar uno de esos dos valores, 0 ó 1.Con un bit podemos representar solamente dos valores, que suelen representarse como 0, 1. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles: 0 0 - Los dos están "apagados" 0 1 - El primero "apagado" 1 0 - El primero "encendido" 1 1 - Los dos están "encendidos" Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como por ejemplo, los colores rojo, verde, azul y negro. A través de secuencias de bits, se puede codificar cualquier valor discreto como números, palabras, e imágenes. Cuatro bits forman un nibble, y pueden representar hasta 24 = 16 valores diferentes; ocho bits forman un octeto, y se pueden representar hasta 28 = 256 valores diferentes. En general, con un número de bits pueden representarse hasta 2n valores diferentes. Nota: Un byte y un octeto no son la misma cosa. Mientras que un octeto siempre tiene 8 bits, un byte contiene un número fijo de bits, que no necesariamente son 8. En los computadores antiguos, el byte podría estar conformado por 6, 7, 8 ó 9 bits. Hoy en día, en la inmensa mayoría de los computadores, y en la mayoría delos campos, un byte tiene 8 bits, siendo equivalente al octeto, pero hay excepciones.Un conjunto de bits, como por ejemplo un byte, representa un conjunto de elementos ordenados. Se llama bit más significativo (MSB) al bit que tiene un mayor peso (mayor valor) dentro del conjunto, análogamente, se llama bit menos significativo (LSB) al bit que tiene un menor peso dentro del conjunto.

D BASE III PLUS

dBASE fue el primer Sistema de gestión de base de datos usado ampliamente para microcomputadoras, publicado por Ashton-Tate para CP/M, y más tarde para Apple II, Apple Macintosh, UNIX [1], VMS [2], e IBM PC bajo DOS donde con su legendaria versión III Plus se convirtió en uno de los títulos de software más vendidos durante un buen número de años.
dBASE nunca pudo superar exitosamente la transición a Microsoft Windows y terminó siendo desplazado por productos más nuevos como Paradox, Clipper, y FoxPro.
Incorporaba un lenguaje propio interpretado y requería un LAN PACK para funcionar sobre red local. En 1988 llegó finalmente la versión IV.
dBASE fue vendido a Borland en 1991. Al poco tiempo promovió una casi intrascendente versión 5, de la que llegó a haber versión para Windows. Luego vendió los derechos de la línea de productos en 1999 a dataBased Intelligence, Inc. (dBI) que sigue comercializando nuevas versiones, llamadas dBASE Plus, desde 1999
Durante la primera mitad de los '80s muchas otras compañías produjeron sus propios dialectos o variaciones del producto y lenguaje. Estos incluyeron FoxPro (ahora Visual FoxPro), Quick-Silver, Clipper, Xbase++, FlagShip, y Harbour. Todos ellos son llamados informalmente como xBase o XBase.
El formato subyacente de dBASE, el archivo dbf, es ampliamente utilizado en muchas otras aplicaciones que necesitan un formato simple para almacenar datos estructurados.
dBASE fue licenciado a los usuarios por un plazo de quince años basado en el inconcebible evento de que un usuario utilizara su copia de dBASE por tan largo período de tiempo.La historia de dBASE empezó a mediados de 1960 como un sistema llamado RETRIEVE. Este sistema era usado, entre otros, por el Jet Propulsion Laboratory, que comisionó el desarrollo de su propia versión de RETRIEVE a uno de sus programadores, Jeb Long. El resultado fue un sistema llamado JPLDIS, que corría en la UNIVAC 1108 y estaba escrito en FORTRAN.
El creador original de dBase fue Wayne Ratliff.

En 1978, durante su estancia en el Jet Propulsion Laboratory (Laboratorio de Propulsión a Chorro) Ratliff escribió un programa de base de datos en ensamblador para ordenadores con sistema operativo CP/M para ayudar con las apuestas de fútbol en la oficina. Lo denominó Vulcan en referencia al personaje Mr. Spock de Star Trek. Se basó en el JPLDIS (Jet Propulsion Laboratory Display Information System) desarrollado por Jeb Long. Más tarde lo usó para preparar sus impuestos y decidió que tenía un potencial comercial.
Las primeras copias tenían un precio de US$7000. La respuesta comercial fue baja y finalmente este hecho, sumado al estrés de las extensiones y las mejoras al sistema, hizo que su mercadeo se estancara.Las versiones originales fueron escritas en lenguaje ensamblador, pero a medida que el programa creció se tomó la decisión de re-escribir el código en lenguaje C. El resultado fue que las máquinas recientes corrían bien el código, pero no así las antiguas. Además, tenía el problema colateral de que los programas corrían más despacio. Este problema desapareció "solo" al aumentar la potencia del hardware paulatinamente. La versión 1.0, presentada en 1984, contenía numerosos errores que fueron solucionados en la versión 1.1. También existió una versión 1.2, que fue presentada como "Developer's edition".

En 1986, se presentó dBase III+, que incluía un núcleo mejorado y menús basados en caracteres de texto para ser utilizado por usuarios finales. También aportaba un primer soporte para red local.