utilizar traps son regla redes quimico que publica pruebas protocolo privada octetos octeto monitoreo los lewis funciona excepciones estructura enlace ejemplos dueto cómo comunidad como administrador networking

networking - traps - Cadena de octeto: ¿qué es?



regla del octeto ejemplos (7)

Estoy empezando a buscar algunos conceptos de programación de red para un proyecto que estoy a punto de asumir, y sigo encontrándome con este concepto de cadena de octetos. ¿Puede alguien por ahí brindar retroalimentación sobre qué es esto y cómo se relaciona con la programación de la red?


"Octeto" es estándar para "byte de 8 bits". Se supone que es un término menos ambiguo en comparación con solo "byte", porque algunas plataformas tienen bytes de ancho diferente (no estoy seguro de si aún quedan algunas, pero solían existir).


Octeto = byte.

Cadena de octetos = secuencia de bytes.

Además, mira Wikipedia .


Suponga una representación de 00000000 binarios a 11111111 como 0x00 a 0xFF en hexadecimal. Entonces el octetString es simplemente 00 a FF.

La combinación de varios octetos con una cadena es como 0x00 0x01 0x02 ... o simplemente 000102 ... como una cadena de octetos.

Los archivos binarios pueden codificarse en cadenas de octetos y enviarse desde un webbclient a un servidor en forma de cadena ASCII que contiene el alfabeto 0-F, como a8b9457fc6e3e410589f o sus mayúsculas. Hay javascript usando la codificación BASE-64 utilizada para almacenar imágenes en Strings. El alfabeto más grande, en este caso (creo) AZ, az, 0-9, es necesario transferir menos datos. cada octeto tiene 256 valores posibles diferentes, y se almacenan en un alfabeto de 62 letras, claramente se necesita usar más de una letra / octeto. Posiblemente el número teórico es proporcional a log62 (256).

La conclusión es que la legibilidad mejorada requiere más espacio que su versión binaria, en el ejemplo de octetstream es el doble de tiempo ya que cada ascii char es de ocho bits y 2 caracteres (16 bits) representan un octeto de ocho bits. Bastante ineficiente.


Un grupo de 8 bits en una computadora se llama un octeto. Un byte es el mismo para la mayoría de los propósitos prácticos, pero no equivale a 8 bits en todas las arquitecturas de computadora. Más se puede encontrar aquí .. Link


Una secuencia de longitud variable de octetos, como en la Notación de sintaxis abstracta uno (ASN.1), se conoce como cadena de octetos.


cadena de octetos:

es representación de información en el modo limitado de 8 bits. Durante la transferencia de los datos desde un punto de dispositivo electrónico a otro punto del dispositivo o cualquier otro dispositivo, debe convertirlos en un paquete de tamaño mínimo. Por lo tanto, se usa para dividir los datos principales en pequeños y comprensibles para el sistema. Por ejemplo: Entonces, el entero 2680, en el binario 101001111000 se convertirá a ese formato de 7 bits de la siguiente manera:

Remaining integer-------------------encoded bytes

101001111000------------------------

10100-------------------------------01111000

0-----------------------------------11111000 & 00010100

Que se representa como (120) (20) separadamente como decimal. luego la división 120 por 16 una tienda como resultado = 7 y recordatorio = 8 otra vez divide 20 por 16 una tienda como resultado = 1 y recordatorio = 4

la nueva forma de número es 0X78 + 0X14

aquí 78 y 14 son cadenas de octetos.

para codificarlos en la etapa Normal: ((16 * 7) +8) * 128 ^ 0 + ((16 * 1) +4) * 128 ^ 1 = 2680

Creo que es la mejor explicación, pero aún estoy buscando más al respecto. Por favor, ayúdame a aprender sobre los alfabetos. Creo que depende de su valor ASCII.


Octet es el término para mencionar datos de 8 bits en la computadora. Byte es el término para mencionar la cantidad de bits necesarios para codificar un carácter de cadena en la computadora.

Octet siempre es de 8 bits. Pero el tamaño de Byte varía según el hardware. La mayor parte del sistema admite la forma ASCII de codificar cadenas. En esas máquinas, el tamaño de Byte es de ocho bits. Algunos de los hardware compatibles con Unicode usan 16 bits como un Byte .