T2 SISTEMAS OPERATIVOS Flashcards

1
Q

En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de:

a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema.
b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento.
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso.
d) Decidir si la planificación es apropiativa o no apropiativa.

A

En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de:

a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema.

b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento.
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso.
d) Decidir si la planificación es apropiativa o no apropiativa.

PRINCIPALES PLANIFICADORES DE CPU

Planificador a largo plazo:

  • Selecciona procesos de la cola de esperando ejecución y los carga a memoria
  • Controla el grado de multiprogramación. Es importante que elija un conjunto equilibrado de procesos.
  • Se ejecuta con poca frecuencia.

Planificador a corto plazo:

  • Selecciona entre los procesos preparados en memoria y les asigna la CPU.
  • Se ejecuta con mucha frecuencia.

Planificador a medio plazo: Decide qué proceso pasa de la memoria principal a la secundaria (memoria virtual) o viceversa.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
2
Q

En sistemas operativos, cuando hablamos de Registro de Instrucción. ¿a qué nos estamos refiriendo?

a) Al registro que contiene el identificador único asociado al proceso de la instrucción.
b) Al registro que contiene la última instrucción leída y que se está ejecutando.
c) Al registro que contiene la dirección de la siguiente instrucción que se leerá de la memoria.
d) Al registro que contiene el número de instrucciones que deben ejecutarse.

A
  • *En sistemas operativos, cuando hablamos de Registro de Instrucción. ¿a qué nos estamos refiriendo?**
    a) Al registro que contiene el identificador único asociado al proceso de la instrucción.

b) Al registro que contiene la última instrucción leída y que se está ejecutando.

c) Al registro que contiene la dirección de la siguiente instrucción que se leerá de la memoria.
d) Al registro que contiene el número de instrucciones que deben ejecutarse.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
3
Q

En el desarrollo de aplicaciones nativas con iOS, la capa que proporciona la infraestructura básica de la aplicación y el soporte para tecnologías clave como la gestión multitarea, la entrada táctil o las notificaciones push se denomina:

a) Núcleo del sistema operativo (Core OS Layer).
b) Capa de servicios del núcleo (Core Services Layer).
c) Capa Cocoa Touch (Cocoa Touch Layer).
d) Capa multimedia (Media Layer).

A

En el desarrollo de aplicaciones nativas con iOS, la capa que proporciona la infraestructura básica de la aplicación y el soporte para tecnologías clave como la gestión multitarea, la entrada táctil o las notificaciones push se denomina:

a) Núcleo del sistema operativo (Core OS Layer).
b) Capa de servicios del núcleo (Core Services Layer).

c) Capa Cocoa Touch (Cocoa Touch Layer).

d) Capa multimedia (Media Layer).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
4
Q

En un sistema operativo, el ‘dispatcher’ se encarga de:

a) Asignar un proceso a un procesador que ha quedado libre.
b) Optimizar el uso de la memoria RAM.
c) Gestionar las interrupciones de entrada/salida.
d) Asignar nuevas páginas de memoria al proceso que se esté ejecutando si las necesita.

A

En un sistema operativo, el ‘dispatcher’ se encarga de:

a) Asignar un proceso a un procesador que ha quedado libre.

b) Optimizar el uso de la memoria RAM.
c) Gestionar las interrupciones de entrada/salida.
d) Asignar nuevas páginas de memoria al proceso que se esté ejecutando si las necesita.

Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.

Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
5
Q

Entre los algoritmos de reemplazo de páginas que utiliza el sistema operativo se encuentran:

a) FIFO, NRU, LRU, NFU, LFU.
b) FIFO, NRU, ML, NLP, LFU.
c) FIFO, NRU, LRU, Yast, YAFFS.
d) FIFO, SCM, SDK, NFU, LFU.

GSI-LI-2019

A

Entre los algoritmos de reemplazo de páginas que utiliza el sistema operativo se encuentran:

a) FIFO, NRU, LRU, NFU, LFU.
b) FIFO, NRU, ML, NLP, LFU.
c) FIFO, NRU, LRU, Yast, YAFFS.
d) FIFO, SCM, SDK, NFU, LFU.

ALGORTIMOS DE REEMPLAZO DE PÁGINAS:

FIFO: El algoritmo reemplaza la página que lleva más tiempo en memoria principal

LRU (Least Recently Used): Este algoritmo asocia a cada página el tiempo en que fue referenciada. La página elegida por el algoritmo de reemplazo será la que fue accedida hace más tiempo.

NRU (Not Recently Used): En este algoritmo a las páginas se les asigna un bit de referencia y otro de modificación. El bit de referencia se enciende cada vez que se lee o escribe la página, mientras que el de modificación solo se enciende cada vez que se escribe.
Cada cierto tiempo el bit de referencia es apagado. Cuando una página debe ser reemplazada, el sistema operativo divide las páginas en cuatro categorías:
- Categoría 0: No referenciada, No modificada
- Categoría 1: No referenciada, modificada
- Categoría 2: referenciada, No modificada
- Categoría 3: referenciada, modificada.
Las mejores páginas para cambiar son las que se encuentran en la categoría 0, mientras que las peores son las de la categoría 3

OTROS ALGORITMOS DE REMPLAZO:

  • No frecuentemente usada (NFU).
  • Envejecimiento (Aging).
  • La menos usada frecuentemente (LFU).
  • Reemplazo de página más lejana FPR (Far Page Replacement))
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
6
Q

Indicad cuál de los siguientes sistemas de ficheros corresponde con un sistema específico de ficheros de red:

a) FAT32
b) UDF
c) NFS
d) HFS

GSI-2011-PI

A

Indicad cuál de los siguientes sistemas de ficheros corresponde con un sistema específico de ficheros de red:

a) FAT32
b) UDF

c) NFS

d) HFS

FAT (File Allocation Table o tabla de asignación de archivos): Las versiones publicadas desde entonces reciben los nombres de FAT12, FAT16 y FAT32. El formato FAT es ideal para gestionar un volumen de datos pequeño. Desde la perspectiva actual, el sistema de archivos FAT está desactualizado, porque incluso en la variante más moderna y potente (FAT32), los archivos pueden tener un tamaño máximo de 4 gigabytes (GB). FAT32 también limita el tamaño máximo de la partición a 8 terabytes (TB).

A pesar de estas limitaciones, el formato FAT sigue siendo muy común. Se utiliza para soportes de datos portátiles extraíbles (discos duros externos o memorias USB) y hardware especial (cámaras digitales, smartphones, rúters, televisores, radios para coche, etc.). Tiene el mayor rango de compatibilidad, especialmente en dispositivos móviles.

NTFS (New Technology File System): El sistema de archivos NTFS, que se introdujo con el sistema operativo Windows NT, ha sido el sistema de archivos estándar para ordenadores con Windows desde Windows Vista. Ofrece varias ventajas sobre FAT, como la posibilidad de comprimir los medios de almacenamiento y una mayor seguridad de los datos (por ejemplo, mediante cifrado). Una característica especial de NTFS es que los derechos de acceso y recursos compartidos de los archivos y carpetas pueden definirse al detalle y de manera integral. Los usuarios pueden asignar derechos de acceso local y remoto a través de la red.

HFS+ (Hierarchical File System): Este sistema de archivos, es una evolución de HFS para Apple. Para diferenciar claramente los dos estándares, se habla también del Mac OS Extended (HFS+) y Mac OS Standard (HFS). En comparación con HFS, HFS+ funciona más rápido y de manera más eficiente a la hora de gestionar, leer y escribir los datos. También permite administrar más archivos, porque admite hasta 4000 millones de bloques de archivos o carpetas. Linux puede leer y escribir datos directamente con HFS+, aunque es necesario instalar paquetes especiales (hfsutils, hfsplus, hfsprogs) en algunos casos. Windows requiere un software adicional para ser totalmente compatible con HFS+.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
7
Q

En una operación de acceso directo a memoria, el procesador debe enviar distintas informaciones necesarias para realizar la operación. Indique cuál de las siguientes alternativas se refiere a un información que no es necesaria en una operación de DMA:

a) Dirección de memoria
b) Tamaño de las palabras
c) Sentido de la operación
d) Identificación del periférico

A

En una operación de acceso directo a memoria, el procesador debe enviar distintas informaciones necesarias para realizar la operación. Indique cuál de las siguientes alternativas se refiere a un información que no es necesaria en una operación de DMA:

a) Dirección de memoria

b) Tamaño de las palabras

c) Sentido de la operación
d) Identificación del periférico

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
8
Q

Indique cuál de los siguientes NO es un algoritmo para la sustitución de páginas en memoria RAM:

a) FIFO.
b) LRU.
c) NRU.
d) Round Robin.

A1-2019-LI

A

Indique cuál de los siguientes NO es un algoritmo para la sustitución de páginas en memoria RAM:

a) FIFO.
b) LRU.
c) NRU.

d) Round Robin.

ALGORTIMOS DE REEMPLAZO DE PÁGINAS:

FIFO: El algoritmo reemplaza la página que lleva más tiempo en memoria principal

LRU (Least Recently Used): Este algoritmo asocia a cada página el tiempo en que fue referenciada. La página elegida por el algoritmo de reemplazo será la que fue accedida hace más tiempo.

NRU (Not Recently Used): En este algoritmo a las páginas se les asigna un bit de referencia y otro de modificación. El bit de referencia se enciende cada vez que se lee o escribe la página, mientras que el de modificación solo se enciende cada vez que se escribe.
Cada cierto tiempo el bit de referencia es apagado. Cuando una página debe ser reemplazada, el sistema operativo divide las páginas en cuatro categorías:
- Categoría 0: No referenciada, No modificada
- Categoría 1: No referenciada, modificada
- Categoría 2: referenciada, No modificada
- Categoría 3: referenciada, modificada.
Las mejores páginas para cambiar son las que se encuentran en la categoría 0, mientras que las peores son las de la categoría 3

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
9
Q

Una condición del bloqueo mutuo es:

a) Condición de exclusión mutua
b) Condición de ocupar y esperar un recurso
c) Condición de espera circular
d) Las 3 son condiciones necesarias del bloqueo mutuo

A

Una condición del bloqueo mutuo es:

a) Condición de exclusión mutua
b) Condición de ocupar y esperar un recurso
c) Condición de espera circular

d) Las 3 son condiciones necesarias del bloqueo mutuo

CONDICIONES NECESARIAS - BLOQUEO MUTUO:

También conocidas como condiciones de Coffman.

Estas condiciones deben cumplirse simultáneamente y no son totalmente independientes entre ellas.

Sean los procesos P0, P1, …, Pn y los recursos R0, R1, …, Rm:

  • Condición de exclusión mutua: existencia de al menos un recurso compartido por los procesos, al cual solo puede acceder uno simultáneamente.
  • Condición de retención y espera: al menos un proceso Pi ha adquirido un recurso Ri, y lo retiene mientras espera al menos un recurso Rj que ya ha sido asignado a otro proceso.
  • Condición de no expropiación: los recursos no pueden ser expropiados por los procesos, es decir, los recursos solo podrán ser liberados voluntariamente por sus propietarios (el sistema operativo no puede quitarle un recurso al proceso).
  • Condición de espera circular: dado el conjunto de procesos P0…Pm(subconjunto del total de procesos original),P0 está esperando un recurso adquirido por P1, que está esperando un recurso adquirido por P2,… ,que está esperando un recurso adquirido por Pm, que está esperando un recurso adquirido por P0. Esta condición implica la condición de retención y espera.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
10
Q

Se dispone de un ordenador monoprocesador que permite multiprogramación, para lo cual es preciso:

a) Utilizar técnicas de multiplexación en el tiempo
b) Utilizar técnicas de ejecución de programas en tiempo real
c) Utilizar técnicas de ejecución en tiempo compartido
d) Fragmentar de forma lógica la memoria caché en tantas partes como programas en ejecución tengamos

A

Se dispone de un ordenador monoprocesador que permite multiprogramación, para lo cual es preciso:

a) Utilizar técnicas de multiplexación en el tiempo
b) Utilizar técnicas de ejecución de programas en tiempo real

c) Utilizar técnicas de ejecución en tiempo compartido

d) Fragmentar de forma lógica la memoria caché en tantas partes como programas en ejecución tengamos

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
11
Q

¿Cuál es la diferencia de los comandos del sistema, tales como la orden de listado de directorio (dir o ls) en MSDOS y LINUX?

a) En MSDOS, los programas del sistema estaban contenidos en el núcleo, y en LINUX son archivos ejecutables
b) En LINUX, los programas del sistema están contenidos en el núcleo, y en MSDOS eran archivos ejecutables
c) No existe diferencia, salvo de nombre en esos programas
d) Todas son falsas

A

¿Cuál es la diferencia de los comandos del sistema, tales como la orden de listado de directorio (dir o ls) en MSDOS y LINUX?

a) En MSDOS, los programas del sistema estaban contenidos en el núcleo, y en LINUX son archivos ejecutables

b) En LINUX, los programas del sistema están contenidos en el núcleo, y en MSDOS eran archivos ejecutables

c) No existe diferencia, salvo de nombre en esos programas
d) Todas son falsas

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
12
Q

En relación con los Sistemas Operativos, ¿Qué se entiende por overhead?

a) Porcentaje de tiempo que transcurre entre la cabecera (header) del primer paquete y el siguiente
b) Porcentaje de tiempo en el que la CPU está atendiendo a tareas del propio sistema
c) Tiempo que tarda la cabeza del disco, una vez posicionada en la pista, en acceder al sector que le interesa
d) Porcentaje de tiempo que la CPU gasta en tratar los datos de entrada

A

En relación con los Sistemas Operativos, ¿Qué se entiende por overhead?

a) Porcentaje de tiempo que transcurre entre la cabecera (header) del primer paquete y el siguiente

b) Porcentaje de tiempo en el que la CPU está atendiendo a tareas del propio sistema

c) Tiempo que tarda la cabeza del disco, una vez posicionada en la pista, en acceder al sector que le interesa
d) Porcentaje de tiempo que la CPU gasta en tratar los datos de entrada

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
13
Q

¿Puede darse el caso de un sistema que sea, a la vez, multiusuario y monotarea?

a) No, si es multiusuario, siempre será multitarea.
b) Sí, en ese caso se admiten varios usuarios al mismo tiempo, pero cada uno de ellos puede estar haciendo sólo una tarea a la vez.
c) Sí, pero sólo si el número de usuarios es de 2, como máximo, ejecutando tareas alternativamente.
d) Sí, pero sólo si se utiliza un sistema gestión de identidades que controle el acceso de los usuarios, de tal forma que actúe como semáforo.

A2-2011-PI

A

¿Puede darse el caso de un sistema que sea, a la vez, multiusuario y monotarea?

a) No, si es multiusuario, siempre será multitarea.
b) Sí, en ese caso se admiten varios usuarios al mismo tiempo, pero cada uno de ellos puede estar haciendo sólo una tarea a la vez.
c) Sí, pero sólo si el número de usuarios es de 2, como máximo, ejecutando tareas alternativamente.
d) Sí, pero sólo si se utiliza un sistema gestión de identidades que controle el acceso de los usuarios, de tal forma que actúe como semáforo.

CLASIFICACIÓN DE S.O:

POR EL Nº DE USUARIOS

  • Monousuario: solo 1 usuario puede usar los recursos del sistema simultáneamente.
  • Multiusuario: varios usuarios pueden usar los recursos del sistema simultáneamente. Por tanto, aunque haya más de un usuario dado de alta en el sistema, si no pueden trabajar de forma simultánea, el SO no es multiusuario.

POR EL Nº DE PROCESOS O TAREAS:

  • Monotarea.
  • Multitarea o multiprogramación.

POR TIEMPO DE RESPUESTA

POR Nº DE PROCESADORES

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
14
Q

En el contexto de un sistema operativo multiproceso, el módulo del kernel que realiza los cambios de contexto necesarios y da control de la CPU a un proceso de usuario para su ejecución inmediata es:

a) Dispatcher (expedidor).
b) Short-term scheduler (planificador a corto plazo).
c) Preemptive scheduler (planificador con derecho preferente).
d) CPU scheduler (planificador de CPU).

A1-2018-LI

A

En el contexto de un sistema operativo multiproceso, el módulo del kernel que realiza los cambios de contexto necesarios y da control de la CPU a un proceso de usuario para su ejecución inmediata es:

a) Dispatcher (expedidor).

b) Short-term scheduler (planificador a corto plazo).
c) Preemptive scheduler (planificador con derecho preferente).
d) CPU scheduler (planificador de CPU).

Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.

Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
15
Q

Se entiende por ‘dispatching ‘:

a) El mecanismo por el que el sistema operativo decide cuál es el siguiente proceso que se va a ejecutar
b) El mecanismo que planifica el uso del procesador entre los diversos programas que se están ejecutando
c) El mecanismo que gestiones las distintas colas de peticiones que existen en un ordenador
d) El mecanismo que determina qué procesador debe ejecutar una determinada instrucción

A

Se entiende por ‘dispatching ‘:

a) El mecanismo por el que el sistema operativo decide cuál es el siguiente proceso que se va a ejecutar

b) El mecanismo que planifica el uso del procesador entre los diversos programas que se están ejecutando
c) El mecanismo que gestiones las distintas colas de peticiones que existen en un ordenador
d) El mecanismo que determina qué procesador debe ejecutar una determinada instrucción

Concepto de Cambio de contexto (context switch). Para dar sensación de ejecución simultánea o multiprogramación, el tipo de CPU debe repartirse entre los procesos. Esto implica cambios de contexto que consisten en quitarle la CPU al proceso “en ejecución” y asignársela a otro estado “preparado”.

Esta operación la realiza un componente del SO llamado dispatcher o planificador a corto plazo y en ella se guarda el contexto del proceso en ejecución en su PCB y se restaura el contexto del nuevo proceso a ejecutar mediante su PCB.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
16
Q

En un ordenador que emplea memoria virtual:

a) Las direcciones que generan los programas se refieren a un espacio mayor que el espacio realmente disponible en memoria principal
b) El mapa de direcciones lógicas o virtual es igual al mapa de direcciones físicas o reales
c) El espacio virtual emplea como soporte la memoria principal
d) Ninguna de las anteriores respuestas es correcta

A

En un ordenador que emplea memoria virtual:

a) Las direcciones que generan los programas se refieren a un espacio mayor que el espacio realmente disponible en memoria principal

b) El mapa de direcciones lógicas o virtual es igual al mapa de direcciones físicas o reales
c) El espacio virtual emplea como soporte la memoria principal
d) Ninguna de las anteriores respuestas es correcta

MEMORIA VIRTUAL

  • La memoria virtual permite ejecutar procesos que requieren más memoria que la disponible en el sistema, manteniendo en memoria principal solo aquella memoria que el proceso esté utilizando y el resto en el disco. De esta forma el usuario ya no debe preocuparse por las limitaciones de memoria física.
  • Cuando una página solicita no se encuentra en memoria principal se produce un “Fallo de página”. El “Fallo de página” genera un trap a nivel del SO, que activa una rutina de atención que carga la página en memoria principal. Se produce Hiperpaginación cuando hay un excesivo número de intercambios con el almacenamiento secundario.
  • Si la memoria está llena se ejecuta un algoritmo de reemplazo para tener en memoria principal las páginas más “importantes” y en disco (swap) las demás.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
17
Q

Señale la respuesta FALSA, en relación con el algoritmo de planificación SRTF (Shortest Remaining Time First):

a) Es una versión de SJF.
b) Cada vez que entran trabajos se interrumpe el actual y se compara el tiempo restante de éste con el de los entrantes.
c) Si hay un trabajo nuevo más corto que lo que le falta al actual en CPU, echamos el actual y metemos el nuevo.
d) Cada proceso tiene un tiempo límite de uso de CPU llamado quantum.

GSI-2014-PI

A

Señale la respuesta FALSA, en relación con el algoritmo de planificación SRTF (Shortest Remaining Time First):

a) Es una versión de SJF.
b) Cada vez que entran trabajos se interrumpe el actual y se compara el tiempo restante de éste con el de los entrantes.
c) Si hay un trabajo nuevo más corto que lo que le falta al actual en CPU, echamos el actual y metemos el nuevo.
d) Cada proceso tiene un tiempo límite de uso de CPU llamado quantum.

SJF (Shortest Job First) – No Apropiativo

Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.

Ventajas

  • Optimiza el tiempo de espera
  • Favorece los procesos orientados a E/S

Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU

Inanición de los procesos con rachas de CPU largas

SRTF (Shortest Remaining Time First) - Apropiativo

Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
18
Q

Los Sistemas Operativos Monolíticos tienen la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Señale la respuesta FALSA respecto a las características fundamentales de este tipo de estructura:

a) Construcción del programa final a base de módulos compilados separadamente que se unen a través del enlazador (linker).
b) Buena definición de parámetros de enlace entre las distintas rutinas existentes, lo que puede provocar mucho acoplamiento.
c) Tienen protecciones y privilegios en las rutinas para manejar diferentes aspectos de los recursos del ordenador, como memoria, disco, etc.
d) Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

A

Los Sistemas Operativos Monolíticos tienen la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Señale la respuesta FALSA respecto a las características fundamentales de este tipo de estructura:

a) Construcción del programa final a base de módulos compilados separadamente que se unen a través del enlazador (linker).
b) Buena definición de parámetros de enlace entre las distintas rutinas existentes, lo que puede provocar mucho acoplamiento.

c) Tienen protecciones y privilegios en las rutinas para manejar diferentes aspectos de los recursos del ordenador, como memoria, disco, etc.

d) Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
19
Q

El control de la ejecución de un programa JCL se realiza por medio de:

a) El subsistema del control de trabajos del sistema operativo
b) El cortafuegos
c) El subsistema de seguridad Kerberos
d) El filtro de paquetes IP

A

El control de la ejecución de un programa JCL se realiza por medio de:

a) El subsistema del control de trabajos del sistema operativo

b) El cortafuegos
c) El subsistema de seguridad Kerberos
d) El filtro de paquetes IP

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
20
Q

¿Cuál de las siguientes funciones NO se considera un componente básico de un Sistema Operativo?

a) La Gestión de la memoria principal.
b) El intérprete de órdenes.
c) EI Sistema de E/S y sistema de archivos.
d) EI registro de presencia en los sistemas de Teletrabajo.

A1-SERV.SALUD-CANARIO 2012

A

¿Cuál de las siguientes funciones NO se considera un componente básico de un Sistema Operativo?

a) La Gestión de la memoria principal.
b) El intérprete de órdenes.
c) EI Sistema de E/S y sistema de archivos.

d) EI registro de presencia en los sistemas de Teletrabajo

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
21
Q

La segmentación es un esquema de asignación de memoria que:

a) Divide la memoria física disponible en un número fijo de particiones cuyo tamaño también es fijo.
b) Divide la memoria física disponible en particiones cuyo número y tamaño varía para adaptarse a las exigencias los procesos.
c) Divide el espacio de direcciones de cada proceso en bloques que puedan ser situados en áreas de memoria no contiguas.
d) Divide la memoria en dos particiones: una para el sistema operativo (modo privilegiado) y otra para los procesos de usuario.

A1-2018-EXT

A

La segmentación es un esquema de asignación de memoria que:

a) Divide la memoria física disponible en un número fijo de particiones cuyo tamaño también es fijo.
b) Divide la memoria física disponible en particiones cuyo número y tamaño varía para adaptarse a las exigencias los procesos.
c) Divide el espacio de direcciones de cada proceso en bloques que puedan ser situados en áreas de memoria no contiguas.
d) Divide la memoria en dos particiones: una para el sistema operativo (modo privilegiado) y otra para los procesos de usuario.

SEGMENTACIÓN:

  • Dividir el programa en segmentos variables (text, data, stack)
  • Ubicar los segmentos en una zona libre y contigua

Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
22
Q
  • *¿En qué se diferencia la API de Windows y Unix en cuanto a filosofía?**
    a) En Unix las funciones de sistema operativo son simples, con pocos parámetros.
    b) Win32 ofrece interfaces muy extensas con muchos parámetros.
    c) En Unix suele haber pocas formas de realizar una operación, mientras en Win32 hay a menudo 3 o 4 formas de realizar lo mismo.
    d) Todas son correctas.
A
  • *¿En qué se diferencia la API de Windows y Unix en cuanto a filosofía?**

a) En Unix las funciones de sistema operativo son simples, con pocos parámetros.
b) Win32 ofrece interfaces muy extensas con muchos parámetros.
c) En Unix suele haber pocas formas de realizar una operación, mientras en Win32 hay a menudo 3 o 4 formas de realizar lo mismo.

d) Todas son correctas

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
23
Q

En la planificación por prioridad circular o “Round Robin”:

a) El proceso preparado que pasa a ejecución corresponde al de tiempo de ejecución restante más corto
b) De acuerdo a su prioridad, cada proceso preparado pasa a ejecución durante una cota de tiempo llamada “cuanto”
c) De forma secuencial, cada proceso preparado pasa a ejecución durante un intervalo de tiempo llamada “cuanto”
d) El proceso preparado que pasa a ejecución corresponde al de mayor prioridad asignada

GSI-2010-PI

A

En la planificación por prioridad circular o “Round Robin”:

a) El proceso preparado que pasa a ejecución corresponde al de tiempo de ejecución restante más corto
b) De acuerdo a su prioridad, cada proceso preparado pasa a ejecución durante una cota de tiempo llamada “cuanto”

c) De forma secuencial, cada proceso preparado pasa a ejecución durante un intervalo de tiempo llamada “cuanto”

d) El proceso preparado que pasa a ejecución corresponde al de mayor prioridad asignada

Round Robin -Apropiativo

Todos el mismo tiempo por turnos. A cada proceso se le asigna una cantidad de tiempo de CPU llamada “quantum”. Si el proceso tiene un intervalo de CPU mayor que el quantum es expulsado de la CPU.

La cola de preparados se gestiona con una política FIFO.

Si el valor del quantum es grande el algoritmo degenera en FCFS. Si es pequeño se generará sobrecarga debido a cambios de contexto.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
24
Q

¿Cuál de las siguientes no es una técnica utilizada para el cálculo de una función de correspondencia que asigna a los bloques de la memoria principal posiciones definidas en la memoria caché?

a) Directa.
b) Totalmente asociativa.
c) Asociativa por conjuntos.
d) Suprayectiva.

A1-JUNTA-ANDALUCIA-2002

A

¿Cuál de las siguientes no es una técnica utilizada para el cálculo de una función de correspondencia que asigna a los bloques de la memoria principal posiciones definidas en la memoria caché?

a) Directa.
b) Totalmente asociativa.
c) Asociativa por conjuntos.

d) Suprayectiva.

Estrategias de correspondencia: Establece a qué bloque o bloques de memoria caché se puede llevar cada bloque de memoria principal.

Directa: En este tipo de correspondencia cada bloque de memoria principal se asigna siempre a un mismo bloque que caché, siguiendo esta fórmula:

Bloque de cache = (Bloque de MP) MOD (Nº Bloques cache)

Totalmente asociativa: Para paliar este problema, la estrategia de correspondencia asociativa da total libertad. Un bloque de memoria principal puede asignarse a cualquier bloque de memoria caché.

Asociativa por conjuntos: La estrategia asociativa por conjuntos divide la memoria cache en conjuntos que contendrán un número fijo de bloques. Al copiar a caché un bloque de memoria principal, obtendremos el número de conjunto al que pertenece, y tendremos libertad para copiarlo en cualquiera de los bloques de dicho conjunto.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
25
Q

En relación con el concepto de memoria virtual, una de las siguientes afirmaciones es falsa. Indique cuál:

a) El mecanismo de traducción de las direcciones de las memorias virtuales se basa en una memoria asociativa que contiene la tabla de páginas físicas y sus equivalentes lógicas
b) Generalmente existe una memoria asociativa de alta velocidad que sirve para albergar aquellos elementos de la tabla de páginas/segmentos utilizadas más recientemente
c) La viabilidad de la memoria virtual se basa en el principio de la proximidad de las referencias a memorias
d) La memoria virtual paginada da lugar a la fragmentación externa

A

En relación con el concepto de memoria virtual, una de las siguientes afirmaciones es falsa. Indique cuál:

a) El mecanismo de traducción de las direcciones de las memorias virtuales se basa en una memoria asociativa que contiene la tabla de páginas físicas y sus equivalentes lógicas
b) Generalmente existe una memoria asociativa de alta velocidad que sirve para albergar aquellos elementos de la tabla de páginas/segmentos utilizadas más recientemente
c) La viabilidad de la memoria virtual se basa en el principio de la proximidad de las referencias a memorias
d) La memoria virtual paginada da lugar a la fragmentación externa

PAGINACIÓN

  • Dividir el programa en bloques de tamaño fijo (página).
  • Dividir la memoria en zonas de tamaño fijo (marcos).
  • Ubicar las páginas en marcos libres
  • No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
  • Técnica adecuada para la gestión de memoria virtual.
  • La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.

[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
26
Q

Señale la respuesta correcta sobre la planificación del Sistema Operativo:

a) Una disciplina de planificación es apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
b) El algoritmo de planificación SJF (primero el trabajo más corto) es una disciplina apropiativa.
c) Una disciplina de planificación es no apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
d) El algoritmo de planificación del tiempo restante más corto (SRT) es una disciplina no apropiativa.

GSI-A2-2015

A

Señale la respuesta correcta sobre la planificación del Sistema Operativo:

a) Una disciplina de planificación es apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
b) El algoritmo de planificación SJF (primero el trabajo más corto) es una disciplina apropiativa.
c) Una disciplina de planificación es no apropiativa si se le puede retirar la CPU a un proceso mientras está en ejecución.
d) El algoritmo de planificación del tiempo restante más corto (SRT) es una disciplina no apropiativa.

Planificación no apropiativa (non-preemptive):

  • Algoritmos no expulsivos.
  • Los procesos se ejecutan hasta que terminan o se bloquean.
  • Sencillo de implementar.
  • Rendimiento negativo en general.

ALGORITMOS DE PLANIFICACIÓN:

SJF (Shortest Job First) – No Apropiativo

Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.

Ventajas

  • Optimiza el tiempo de espera
  • Favorece los procesos orientados a E/S

Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU

Inanición de los procesos con rachas de CPU largas

SRTF (Shortest Remaining Time First) - Apropiativo

Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
27
Q

Acerca de la memoria virtual, ¿Cuál de las siguientes afirmaciones es verdadera?

a) Se distingue el mapa de direcciones lógicas o virtual y el mapa de direcciones físicas o reales. Las direcciones físicas y lógicas son del mismo tamaño
b) Con paginación se resuelven todos los problemas de fragmentación de memoria
c) Obliga a tener en memoria principal todo el contenido del programa durante la ejecución
d) Con memoria segmentada se complica la traducción de direcciones

A

Acerca de la memoria virtual, ¿Cuál de las siguientes afirmaciones es verdadera?

a) Se distingue el mapa de direcciones lógicas o virtual y el mapa de direcciones físicas o reales. Las direcciones físicas y lógicas son del mismo tamaño
b) Con paginación se resuelven todos los problemas de fragmentación de memoria
c) Obliga a tener en memoria principal todo el contenido del programa durante la ejecución

d) Con memoria segmentada se complica la traducción de direcciones

GESTIÓN DE MEMORIA

Objetivo: ubicar procesos en memoria.

  • Quepa el mayor número de procesos.
  • Aprovechar la memoria al máximo (no huecos libres)
  • Separación entre direccionamiento físico y virtual/lógico. Ver concepto MMU[1]

SEGMENTACIÓN:

  • Dividir el programa en segmentos variables (text, data, stack)
  • Ubicar los segmentos en una zona libre y contigua

Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).

PAGINACIÓN

  • Dividir el programa en bloques de tamaño fijo (página).
  • Dividir la memoria en zonas de tamaño fijo (marcos).
  • Ubicar las páginas en marcos libres
  • No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
  • Técnica adecuada para la gestión de memoria virtual.
  • La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.

[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.

[1] MMU – Unidad de Gestión de Memoria.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
28
Q

Sea un sistema de memoria virtual paginada con direcciones lógicas de 32 bits que proporcionan un espacio virtual de 2^20 y con una memoria física de 32 MB. ¿Cuánto ocupará la tabla de marcos de página que emplea el sistema operativo si cada entrada de la misma ocupa 32 bits?

a) 32 kB
b) 4 MB
c) 1 MB
d) 8 kB

A1-2006-LI

A

Sea un sistema de memoria virtual paginada con direcciones lógicas de 32 bits que proporcionan un espacio virtual de 2^20 y con una memoria física de 32 MB. ¿Cuánto ocupará la tabla de marcos de página que emplea el sistema operativo si cada entrada de la misma ocupa 32 bits?

a) 32 kB

b) 4 MB
c) 1 MB
d) 8 kB

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
29
Q

Indique la respuesta INCORRECTA sobre el protocolo SMB:

a) Protocolo de red que permite compartir archivos e impresoras (entre otras cosas) entre nodos de una red.
b) Microsoft añadió algunas extensiones al protocolo y lo renombró como CIFS (Common Internet File System).
c) Las iniciales SMB responden a Service Message Block.
d) SAMBA es una implementación libre del protocolo para entornos GNU/Linux y Unix.

A2-2010-LI

A

Indique la respuesta INCORRECTA sobre el protocolo SMB:

a) Protocolo de red que permite compartir archivos e impresoras (entre otras cosas) entre nodos de una red.
b) Microsoft añadió algunas extensiones al protocolo y lo renombró como CIFS (Common Internet File System).

c) Las iniciales responden a Service Message Block.

d) SAMBA es una implementación libre del protocolo para entornos GNU/Linux y Unix.

Server Message Block (SMB): es un protocolo de red que permite compartir archivos, impresoras, etc, entre nodos de una red de computadoras que usan el sistema operativo Microsoft Windows.

Este protocolo pertenece a la capa de aplicación en el modelo TCP/IP.

Es utilizado principalmente en computadoras con sistemas operativos: Microsoft Windows y DOS.

Microsoft renombró SMB a Common Internet File System (CIFS) y añadió más características, que incluyen: soporte para enlaces simbólicos, enlaces duros (hard links), y mayores tamaños de archivo. Hay características en la implementación SMB de Microsoft que no son parte del protocolo SMB original.

También existe Samba, que es una implementación libre del protocolo SMB con las extensiones de Microsoft. Funciona sobre sistemas operativos GNU/Linux y en otros UNIX.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
30
Q

En un Sistema Operativo, una planificación de procesos se denomina “preemptive”:

a) Cuando un proceso no se puede desalojar de la CPU
b) No existe tal denominación
c) La prevención de ejecutar procesos que consuman muchos recursos por el Sistema operativo
d) Cuando un proceso se puedo desalojar de la CPU

GSI-2010-PI

A

En un Sistema Operativo, una planificación de procesos se denomina “preemptive”:

a) Cuando un proceso no se puede desalojar de la CPU
b) No existe tal denominación
c) La prevención de ejecutar procesos que consuman muchos recursos por el Sistema operativo

d) Cuando un proceso se puedo desalojar de la CPU

Tipos de planificación:

Planificación no apropiativa (non-preemptive):

  • Algoritmos no expulsivos.
  • Los procesos se ejecutan hasta que terminan o se bloquean.
  • Sencillo de implementar.
  • Rendimiento negativo en general.

Planificación aproviativa (preemptive):

  • Algoritmos expulsivos.
  • Los procesos pueden ser expulsados de la CPU.
  • Mayor coste de implementación. Necesitan soporte hardware adicional (relojes).
  • Mejora el servicio y evita monopolización de la CPU.
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
31
Q

El “throughput”, como medida de rendimiento de un sistema informático, se define mejor como:

a) Tiempo transcurrido entre la realización de una petición al sistema y la recepción de la respuesta.
b) El número de usuarios simultáneos trabajando en el sistema.
c) El porcentaje de tiempo de los dispositivos están trabajando en tareas del sistema, no imputables a ningún trabajo de usuario.
d) Cantidad de trabajo útil ejecutado por unidad de tiempo en un entorno de carga determinado. Por ejemplo, transacciones por segundo.

A2-2007-LI

A

El “throughput”, como medida de rendimiento de un sistema informático, se define mejor como:

a) Tiempo transcurrido entre la realización de una petición al sistema y la recepción de la respuesta.
b) El número de usuarios simultáneos trabajando en el sistema.
c) El porcentaje de tiempo de los dispositivos están trabajando en tareas del sistema, no imputables a ningún trabajo de usuario.

d) Cantidad de trabajo útil ejecutado por unidad de tiempo en un entorno de carga determinado. Por ejemplo, transacciones por segundo.

Throughput: rendimiento, capacidad, productividad. Medida de la cantidad de trabajo realizado por un sistema de computación en un periodo de tiempo.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
32
Q

La estrategia de organización de memoria caché en la que no existe el campo índice y la etiqueta coincide con el número de bloque de la memoria principal es correspondencia:

a) directa.
b) asociativa por conjuntos.
c) (totalmente) asociativa.
d) diferida.

A2-2016-LI

A

La estrategia de organización de memoria caché en la que no existe el campo índice y la etiqueta coincide con el número de bloque de la memoria principal es correspondencia:

a) directa.
b) asociativa por conjuntos.

c) (totalmente) asociativa.

d) diferida.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
33
Q

En el ámbito de los sistemas operativos y la memoria virtual, ¿Qué es Translation Lookaside Buffer (TLB)?

a) Memoria caché que contiene partes de la información de la tabla de virtualización.
b) Memoria caché que contiene partes de la información de la memoria secundaria.
c) Memoria caché que contiene partes de la información de la memoria principal.
d) Memoria caché que contiene partes de la información de la tabla de paginación.

A1-2017-LI

A

En el ámbito de los sistemas operativos y la memoria virtual, ¿Qué es Translation Lookaside Buffer (TLB)?

a) Memoria caché que contiene partes de la información de la tabla de virtualización.
b) Memoria caché que contiene partes de la información de la memoria secundaria.
c) Memoria caché que contiene partes de la información de la memoria principal.

d) Memoria caché que contiene partes de la información de la tabla de paginación.

TLB – Translation Lookaside Buffer - Tabla de páginas en cache.

MMU (Unidad de gestión de memoria),es un dispositivo de hardware formado por un grupo de circuitos integrados, responsable del manejo de los accesos a la memoria por parte de la Unidad de Procesamiento Central (CPU).

Entre las funciones de este dispositivo se encuentran la traducción de las direcciones lógicas (o virtuales) a direcciones físicas (o reales), la protección de la memoria, el control de caché y, en arquitecturas de computadoras más simples (especialmente en sistemas de 8 bits), bank switching.

Cuando la CPU intenta acceder a una dirección de memoria lógica, la MMU realiza una búsqueda en una memoria caché especial (TLB, Translation Lookaside Buffer), que mantiene la parte de la tabla de páginas usada hace menos tiempo.

En esta memoria se mantienen “entradas de la tabla de páginas -PTE”, donde se pueden rescatar las direcciones físicas correspondientes a algunas direcciones lógicas, de forma directa. Cuando la dirección requerida por la CPU se encuentra en el TLB, su traducción a dirección real o física es entregada, en lo que se conoce como “acierto en el TLB” (TLB hit).

En otro caso, cuando la dirección buscada no se encuentra en el TLB (fallo en el TLB), la MMU busca en la tabla de páginas del proceso utilizando el número de página como entrada a la misma. En la entrada de la tabla de páginas del proceso se encuentra un bit de presencia, que indica si la página buscada está en memoria principal. Si el bit de presencia está activado, se carga esta PTE en el TLB y se devuelve la dirección física. En caso contrario, se informa al sistema operativo de la situación, mediante un “fallo de página”.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
34
Q

Para la traducción de direcciones virtuales a físicas se utiliza:

a) La paginación
b) La segmentación
c) Son ciertas ‘a’ y ‘b’
d) Todas son falsas

A

Para la traducción de direcciones virtuales a físicas se utiliza:

a) La paginación
b) La segmentación

c) Son ciertas ‘a’ y ‘b’

d) Todas son falsas

GESTIÓN DE MEMORIA

Objetivo: ubicar procesos en memoria.

  • Quepa el mayor número de procesos.
  • Aprovechar la memoria al máximo (no huecos libres)
  • Separación entre direccionamiento físico y virtual/lógico. Ver concepto MMU[1]

SEGMENTACIÓN:

  • Dividir el programa en segmentos variables (text, data, stack)
  • Ubicar los segmentos en una zona libre y contigua

Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).

PAGINACIÓN

  • Dividir el programa en bloques de tamaño fijo (página).
  • Dividir la memoria en zonas de tamaño fijo (marcos).
  • Ubicar las páginas en marcos libres
  • No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
  • Técnica adecuada para la gestión de memoria virtual.
  • La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.

[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.

[1] MMU – Unidad de Gestión de Memoria.

How well did you know this?
1
Not at all
2
3
4
5
Perfectly
35
Q

Respecto a la concepción de un sistema operativo como gestor de recursos, un sistema operativo de propósito específico de control en tiempo real no precisa gestionar:

a) trabajos o procesos
b) memoria principal
c) almacenamiento secundario
d) dispositivos de entrada/salida

A

Respecto a la concepción de un sistema operativo como gestor de recursos, un sistema operativo de propósito específico de control en tiempo real no precisa gestionar:

a) trabajos o procesos
b) memoria principal

c) almacenamiento secundario

d) dispositivos de entrada/salida

CLASIFICACIÓN DE S.O:

POR TIEMPO DE RESPUESTA: Tiempo que tarda el usuario en obtener los resultados después de iniciar la ejecución de un programa):

  • Procesamiento por lotes: el tiempo de respuesta no es importante y suele ser alto. Los procesos se ejecutan secuencialmente unos tras otro. No existe interacción con el usuario. Ejemplo: copias de seguridad.
  • Tiempo compartido: el procesador divide su tiempo entre todos los procesos (usando algoritmos de planificación como Round Robin). Ejemplo: sistemas multiusuarios interactivos (los usuarios interactúan con el sistema).
  • Tiempo real: en estos SO, los procesos requieren un tiempo de respuesta muy bajo o inmediato. Ejemplos: donde esto es especialmente importante: sistema donde el tiempo de respuesta es crucial como sistemas médicos de monitorización de pacientes, sistemas bancarios, tráfico aéreo…
How well did you know this?
1
Not at all
2
3
4
5
Perfectly
36
Q

La memoria virtual:

a) También se denomina antememoria o memoria caché
b) Es una memoria de sólo lectura
c) Obliga a diferenciar entre el mapa de direcciones lógicas y el de direcciones físicas
d) Se organiza, siguiendo la técnica ‘pipe-line’, en un conjunto de elementos, llamados segmentos, que forman una unidad lógica desde el punto de vista del software

A

La memoria virtual:

a) También se denomina antememoria o memoria caché
b) Es una memoria de sólo lectura

c) Obliga a diferenciar entre el mapa de direcciones lógicas y el de direcciones físicas

d) Se organiza, siguiendo la técnica ‘pipe-line’, en un conjunto de elementos, llamados segmentos, que forman una unidad lógica desde el punto de vista del software

37
Q

Cuando para un archivo disponemos de dos estructuras o zonas distintas, zona de registros y zona de índices, y no hay punteros entre los registros, entonces estamos hablando de archivos con organización:

a) Secuencial
b) Secuencial indexada
c) Secuencial indexada encadenada
d) Semi-indexada

A

Cuando para un archivo disponemos de dos estructuras o zonas distintas, zona de registros y zona de índices, y no hay punteros entre los registros, entonces estamos hablando de archivos con organización:

a) Secuencial

b) Secuencial indexada

c) Secuencial indexada encadenada
d) Semi-indexada

GESTIÓN DE FICHEROS

TIPOS DE ASIGANCIÓN DE ESPACIO.

ASIGNACIÓN CONTIGUA: Cada directorio contiene la los nombres de archivos y la dirección del bloque inicial de cada archivo, así como el tamaño total de los mismos. Por ejemplo, si un archivo comienza en el sector 17 y mide 10 bloques, cuando el archivo sea accedido, el brazo se moverá inicialmente al bloque 17 y de ahí hasta el 27. Si el archivo es borrado y luego creado otro más pequeño, quedarán huecos inútiles entre archivos útiles, lo cual se llama fragmentación externa.

• ASIGNACIÓN ENLAZADA: (Sistemas FAT / FAT32) Con este criterio los directorios contienen los nombres de archivos y por cada uno de ellos la dirección del bloque inicial que compone al archivo. Cuando un archivo es leído, el brazo va a esa dirección inicial y encuentra los datos iniciales junto con la dirección del siguiente bloque y así sucesivamente. Con este criterio no es necesario que los bloques estén contiguos y no existe la fragmentación externa, pero en cada “eslabón” de la cadena se desperdicia espacio con las direcciones mismas. En otras palabras, lo que se crea en el disco es una lista ligada.

• ASIGNACIÓN INDEXADA: En este esquema se guarda en el directorio un bloque de índices para cada archivo, con apuntadores hacia todos sus bloques constituyentes, de manera que el acceso directo se agiliza notablemente, a cambio de sacrificar varios bloques para almacenar dichos apuntadores. Cuando se quiere leer un archivo o cualquiera de sus partes, se hacen dos accesos: uno al bloque de índices y otro a la dirección deseada. Este es un esquema excelente para archivos grandes pero no para pequeños, porque la relación entre bloques destinados para índices respecto a los asignados para datos es incosteable. Inodos de Linux. Ext4. NTFS usa arboles B pero no exactamente indexada.

38
Q

¿Cuál es la afirmación correcta respecto a BIOS?

a) Es un software que se almacena en EPROM pero que no se puede considerar básico
b) Se refresca cada vez que arranca el PC
c) Es el primer software que se ejecuta en el proceso de arranque de una placa base
d) No se puede reprogramar

A

¿Cuál es la afirmación correcta respecto a BIOS?

a) Es un software que se almacena en EPROM pero que no se puede considerar básico
b) Se refresca cada vez que arranca el PC

c) Es el primer software que se ejecuta en el proceso de arranque de una placa base

d) No se puede reprogramar

El sistema básico de entrada-salida o BIOS (del inglés Basic Input/Output System) es un estándar de facto que define la interfaz de firmware para computadoras IBM PC compatibles

El firmware del BIOS es instalado dentro de la PC, y es el primer programa que se ejecuta cuando se enciende la computadora.

El propósito fundamental del BIOS es iniciar, y probar el hardware del sistema y cargar un gestor de arranque o un sistema operativo desde un dispositivo de almacenamiento de datos. Además, el BIOS provee una capa de abstracción para el hardware, por ejemplo, que consiste en una vía para que los programas de aplicaciones y los sistemas operativos interactúen con el teclado, el monitor y otros dispositivos de entrada/salida. Las variaciones que ocurren en el hardware del sistema quedan ocultas por el BIOS, ya que los programas usan servicios de BIOS en lugar de acceder directamente al hardware. Los sistemas operativos modernos ignoran la capa de abstracción provista por el BIOS y acceden al hardware directamente.

El software del BIOS es almacenado en un circuito integrado de memoria ROM no volátil en la placa base. Está específicamente diseñado para trabajar con cada modelo de computadora en particular, interconectando los diversos dispositivos que componen el conjunto de chips complementarios del sistema. En computadoras modernas, e_l BIOS está almacenado en una memoria flash, por lo que su contenido puede ser reescrito_ sin retirar el circuito integrado de la placa base. Esto permite que el BIOS sea fácil de actualizar para agregar nuevas características o corregir errores, pero puede hacer que la computadora sea vulnerable a los rootkit de BIOS.

39
Q

Sean dos procesos: P1, con tiempo de ejecución de 20ms, y P2, con 15ms. El planificador a corto plazo actúa según un Round Robin con cuanto de 10ms y tiempo de conmutación de tarea de 5ms. Marcar el tiempo de retorno (regreso) de P2, teniendo en cuenta que se empieza ejecutando P1.

a) 35
b) 40
c) 50
d) 55

GSI-2010-PI

A

Sean dos procesos: P1, con tiempo de ejecución de 20ms, y P2, con 15ms. El planificador a corto plazo actúa según un Round Robin con cuanto de 10ms y tiempo de conmutación de tarea de 5ms. Marcar el tiempo de retorno (regreso) de P2, teniendo en cuenta que se empieza ejecutando P1.

a) 35
b) 40

c) 50

d) 55

Round Robin -Apropiativo

Todos el mismo tiempo por turnos. A cada proceso se le asigna una cantidad de tiempo de CPU llamada “quantum”. Si el proceso tiene un intervalo de CPU mayor que el quantum es expulsado de la CPU.

La cola de preparados se gestiona con una política FIFO.

Si el valor del quantum es grande el algoritmo degenera en FCFS. Si es pequeño se generará sobrecarga debido a cambios de contexto.

40
Q

La aplicación o un conjunto de aplicaciones que almacena y organiza la información sobre los usuarios de una red de ordenadores, sobre recursos de red, y permite a los administradores gestionar el acceso de usuarios a los recursos sobre dicha red recibe el nombre de:

a) Sistema de ficheros.
b) Servicio de nombres.
c) Servicio de agente remoto.
d) Servicio de directorio.

GSI-2011-PI

A

La aplicación o un conjunto de aplicaciones que almacena y organiza la información sobre los usuarios de una red de ordenadores, sobre recursos de red, y permite a los administradores gestionar el acceso de usuarios a los recursos sobre dicha red recibe el nombre de:

a) Sistema de ficheros.
b) Servicio de nombres.
c) Servicio de agente remoto.

d) Servicio de directorio.

41
Q

Los problemas de exclusión mutua entre procesos:

a) Se centran en tres grandes áreas: la exclusión mutua, el manejo de interrupciones y el ‘dead lock’
b) Los resuelve el núcleo del sistema operativo mediante la función de dispatching
c) Afectan a la protección de datos en memoria y se resuelven dotando al hardware de una serie de instrucciones privilegiadas que gestiona el núcleo del sistema operativo
d) Se resuelven mediante la implementación de semáforos

A

Los problemas de exclusión mutua entre procesos:

a) Se centran en tres grandes áreas: la exclusión mutua, el manejo de interrupciones y el ‘dead lock’
b) Los resuelve el núcleo del sistema operativo mediante la función de dispatching
c) Afectan a la protección de datos en memoria y se resuelven dotando al hardware de una serie de instrucciones privilegiadas que gestiona el núcleo del sistema operativo

d) Se resuelven mediante la implementación de semáforos

COMUNICACIÓN/SINCRONIZACIÓN DE PROCESOS (CONCURRENCIA)

Memoria compartida: Necesitan un mecanismo de sincronización externo.

La responsabilidad de la comunicación recae en los procesos (el sistema operativo sólo proporciona llamadas para manipular dicha memoria compartida).

Paso de mensajes: La responsabilidad de la comunicación y sincronización recae en el Sistema Operativo que proporciona un enlace lógico entre procesos.

Los procesos sólo tienen que invocar correctamente a dos llamadas básicas: send y receive (bloqueantes o no).

Canalizaciones (tuberías) con nombre y sin nombre

NOTA: Para la sincronización podemos usar Semáforos o Monitores

NOTA: Para garantizar el acceso concurrente con exclusión mutua existen varios algoritmos:

  • Dekker
  • Peterson
  • Eisenberg – McGuire
  • La panadería de Lamport
42
Q

En un sistema operativo multihilo, dos hilos de ejecución (thread) pertenecientes al mismo proceso:

a) Tienen copias del “heap” independientes.
b) Se comunican por IPC.
c) No comparten memoria.
d) Tienen copias del “stack” independientes.

A

En un sistema operativo multihilo, dos hilos de ejecución (thread) pertenecientes al mismo proceso:

a) Tienen copias del “heap” independientes.
b) Se comunican por IPC.
c) No comparten memoria.

d) Tienen copias del “stack” independientes.

THREADS (HILO)

Un hilo es una unidad básica de utilización de CPU, la cual contiene un id de hilo, su propio program counter, un conjunto de registros y una pila; se representa a nivel del SO con una estructura llamada TCB (Thread Control Block).

Los hilos comparten con otros hilos que pertenecen al mismo proceso la sección de código, la sección de datos, entre otras cosas. Si un proceso tiene múltiples hilos, puede realizar más de una tarea a la vez (esto es real cuando se posee más de una CPU o Core).

El hilo padre y el hilo hijo comparten todas información del montón (heap).

Cada hilo tiene su propio pila (stack) de ejecución. Esa pila es privada y cada hilo ejecuta mediante su pila.

43
Q

Un sistema situado en una central nuclear, encargado de gestionar su correcto funcionamiento y operativa, controlando todos sus elementos, y que tiene un umbral de tiempo máximo para dar cada respuesta, se cataloga como:

a) Sistema multiprogramado
b) Sistema de tiempo compartido
c) Sistema de tiempo real
d) Sistema multiusuario

A

Un sistema situado en una central nuclear, encargado de gestionar su correcto funcionamiento y operativa, controlando todos sus elementos, y que tiene un umbral de tiempo máximo para dar cada respuesta, se cataloga como:

a) Sistema multiprogramado
b) Sistema de tiempo compartido

c) Sistema de tiempo real

d) Sistema multiusuario

POR TIEMPO DE RESPUESTA: Tiempo que tarda el usuario en obtener los resultados después de iniciar la ejecución de un programa):

  • Procesamiento por lotes: el tiempo de respuesta no es importante y suele ser alto. Los procesos se ejecutan secuencialmente unos tras otro. No existe interacción con el usuario. Ejemplo: copias de seguridad.
  • Tiempo compartido: el procesador divide su tiempo entre todos los procesos (usando algoritmos de planificación como Round Robin). Ejemplo: sistemas multiusuarios interactivos (los usuarios interactúan con el sistema).
  • Tiempo real: en estos SO, los procesos requieren un tiempo de respuesta muy bajo o inmediato. Ejemplos: donde esto es especialmente importante: sistema donde el tiempo de respuesta es crucial como sistemas médicos de monitorización de pacientes, sistemas bancarios, tráfico aéreo…

POR EL Nº DE PROCESOS O TAREAS:

  • Monotarea.
  • Multitarea o multiprogramación.
44
Q

Un sistema que reparte un quantum de procesador entre sus usuarios interactivos podría calificarse de:

a) Tiempo compartido
b) Tiempo real
c) Batch
d) Ninguna de las anteriores respuestas es correcta

A

Un sistema que reparte un quantum de procesador entre sus usuarios interactivos podría calificarse de:

a) Tiempo compartido

b) Tiempo real
c) Batch
d) Ninguna de las anteriores respuestas es correcta

CLASIFICACIÓN DE S.O POR TIEMPO DE RESPUESTA: Tiempo que tarda el usuario en obtener los resultados después de iniciar la ejecución de un programa):

  • Procesamiento por lotes: el tiempo de respuesta no es importante y suele ser alto. Los procesos se ejecutan secuencialmente unos tras otro. No existe interacción con el usuario. Ejemplo: copias de seguridad.
  • Tiempo compartido: el procesador divide su tiempo entre todos los procesos (usando algoritmos de planificación como Round Robin). Ejemplo: sistemas multiusuarios interactivos (los usuarios interactúan con el sistema).
  • Tiempo real: en estos SO, los procesos requieren un tiempo de respuesta muy bajo o inmediato. Ejemplos: donde esto es especialmente importante: sistema donde el tiempo de respuesta es crucial como sistemas médicos de monitorización de pacientes, sistemas bancarios, tráfico aéreo…
45
Q

Frecuencia de paginación es:

a) Número de peticiones de servicio por unidad de tiempo
b) Número de programas sacados de memoria por unidad de tiempo
c) Número de trabajos de un programa en un entorno de memoria virtual por unidad de tiempo
d) Número de fallos de página que se producen por unidad de tiempo

A

Frecuencia de paginación es:

a) Número de peticiones de servicio por unidad de tiempo
b) Número de programas sacados de memoria por unidad de tiempo
c) Número de trabajos de un programa en un entorno de memoria virtual por unidad de tiempo

d) Número de fallos de página que se producen por unidad de tiempo

Cuando la CPU intenta acceder a una dirección de memoria lógica, la MMU realiza una búsqueda en una memoria caché especial (TLB, Translation Lookaside Buffer), que mantiene la parte de la tabla de páginas usada hace menos tiempo.

En esta memoria se mantienen “entradas de la tabla de páginas -PTE”, donde se pueden rescatar las direcciones físicas correspondientes a algunas direcciones lógicas, de forma directa. Cuando la dirección requerida por la CPU se encuentra en el TLB, su traducción a dirección real o física es entregada, en lo que se conoce como “acierto en el TLB” (TLB hit).

En otro caso, cuando la dirección buscada no se encuentra en el TLB (fallo en el TLB), la MMU busca en la tabla de páginas del proceso utilizando el número de página como entrada a la misma. En la entrada de la tabla de páginas del proceso se encuentra un bit de presencia, que indica si la página buscada está en memoria principal. Si el bit de presencia está activado, se carga esta PTE en el TLB y se devuelve la dirección física. En caso contrario, se informa al sistema operativo de la situación, mediante un “fallo de página”.

Es el sistema operativo el encargado de realizar los ajustes necesarios (esto es, cargar la página en memoria física) usando uno de los algoritmos de reemplazo de páginas, para continuar con la ejecución desde la instrucción que causó el fallo.

46
Q

¿Qué ordenador personal fue el primero en utilizar el sistema de ventanas - iconos - ratón - puntero (WIMP)?

a) zx81.
b) IBM XT.
c) APPLE.
d) Amstrad CPC 128.

A1-JUNTA DE ANDALUCIA-2003

A

¿Qué ordenador personal fue el primero en utilizar el sistema de ventanas - iconos - ratón - puntero (WIMP)?

a) zx81.
b) IBM XT.

c) APPLE.

d) Amstrad CPC 128.

47
Q

El algoritmo de Peterson corresponde a:

a) Un algoritmo de ordenación de listas.
b) Un método de ordenación en un sistema distribuido.
c) Una política de sustitución de páginas al producirse un fallo de página.
d) Una solución al problema de la exclusión mutua.

A2-2014-LI

A

El algoritmo de Peterson corresponde a:

a) Un algoritmo de ordenación de listas.
b) Un método de ordenación en un sistema distribuido.
c) Una política de sustitución de páginas al producirse un fallo de página.

d) Una solución al problema de la exclusión mutua.

COMUNICACIÓN/SINCRONIZACIÓN DE PROCESOS (CONCURRENCIA)

Memoria compartida: Necesitan un mecanismo de sincronización externo.

La responsabilidad de la comunicación recae en los procesos (el sistema operativo sólo proporciona llamadas para manipular dicha memoria compartida).

Paso de mensajes: La responsabilidad de la comunicación y sincronización recae en el Sistema Operativo que proporciona un enlace lógico entre procesos.

Los procesos sólo tienen que invocar correctamente a dos llamadas básicas: send y receive (bloqueantes o no).

Canalizaciones (tuberías) con nombre y sin nombre

NOTA: Para la sincronización podemos usar Semáforos o Monitores

NOTA: Para garantizar el acceso concurrente con exclusión mutua existen varios algoritmos:

  • Dekker
  • Peterson
  • Eisenberg – McGuire
  • La panadería de Lamport
48
Q

Los sistemas operativos multitarea:

a) Se conocen también como sistemas multiproceso
b) El procesador cambia de una tarea a otra dando la apariencia de que se realizan concurrentemente
c) Son “preemptive” si cada tarea controla el tiempo que utiliza la CPU
d) Son “cooperative” si el sistema operativo controla el tiempo que cada tarea utiliza la CPU

A

Los sistemas operativos multitarea:

a) Se conocen también como sistemas multiproceso

b) El procesador cambia de una tarea a otra dando la apariencia de que se realizan concurrentemente

c) Son “preemptive” si cada tarea controla el tiempo que utiliza la CPU
d) Son “cooperative” si el sistema operativo controla el tiempo que cada tarea utiliza la CPU

POR EL Nº DE PROCESOS O TAREAS:

  • Monotarea.
  • Multitarea o multiprogramación.
49
Q

La arquitectura de un ordenador viene definida por:

a) El repertorio de instrucciones
b) El tipo de direccionamientos
c) El tipo de operandos
d) Todas las anteriores

A1-2011-LI

A

La arquitectura de un ordenador viene definida por:

a) El repertorio de instrucciones
b) El tipo de direccionamientos
c) El tipo de operandos

d) Todas las anteriores

50
Q

En un sistema con memoria virtual, la política de reemplazo óptima es aquélla que aconseja reemplazar la página:

a) Que más tiempo lleva en memoria.
b) Que más tiempo vaya a tardar en ser referenciada.
c) Que lleva más tiempo sin ser referenciada.
d) Que ha sido utilizada con menos frecuencia.

GSI-2007-LI

A

En un sistema con memoria virtual, la política de reemplazo óptima es aquélla que aconseja reemplazar la página:

a) Que más tiempo lleva en memoria.

b) Que más tiempo vaya a tardar en ser referenciada.

c) Que lleva más tiempo sin ser referenciada.
d) Que ha sido utilizada con menos frecuencia.

51
Q

¿Cuál de las siguientes funciones no las realiza el Sistema Operativo?

a) Gestión de memoria
b) Administración de procesos
c) Arranque de la máquina
d) Administración del sistema de E/S

A2-2009-LI

A

¿Cuál de las siguientes funciones no las realiza el Sistema Operativo?

a) Gestión de memoria
b) Administración de procesos

c) Arranque de la máquina

d) Administración del sistema de E/S

FUNCIONES BASICAS DEL S.O

  • Gestionar los recursos de hardware de la computadora (procesador, memoria y periféricos
  • Ser una interfaz entre el usuario y la computadora.
  • Ser la plataforma para los programas de aplicación del usuario.

COMPONENTES / SERVICIOS

  • Gestión de procesos (planificadores)
  • Gestión de memoria (técnicas de paginación, segmentación)
  • Gestión de Entrada/Salida (controladores de dispositivos)
  • Gestión de Archivos/Almacenamiento (sistemas de ficheros)
  • Sistema de Protección (niveles de seguridad)
52
Q

El principio de “Need-To-Know” viene a significar que:

a) Un proceso sólo debería acceder a aquello recursos que son necesarios para completar su tarea.
b) Un proceso ha de estar siempre activo frente a cualquier ataque pasivo.
c) Las dos anteriores son correctas.
d) Hace referencia exclusiva a la asignación de recursos con herramientas PERT, CPM etc.

A

El principio de “Need-To-Know” viene a significar que:

a) Un proceso sólo debería acceder a aquello recursos que son necesarios para completar su tarea.

b) Un proceso ha de estar siempre activo frente a cualquier ataque pasivo.
c) Las dos anteriores son correctas.
d) Hace referencia exclusiva a la asignación de recursos con herramientas PERT, CPM etc.

53
Q

Se puede acceder directamente a la memoria principal del ordenador por varios métodos. Entre ellos se encuentra:

a) Bus multiplexado
b) Robo de ciclo
c) Memoria segmentada
d) Accesos aleatorios

A

Se puede acceder directamente a la memoria principal del ordenador por varios métodos. Entre ellos se encuentra:

a) Bus multiplexado
b) _Robo de ciclo y transferencia modo ráfaga _
c) Memoria segmentada
d) Accesos aleatorios

El ACCESO DIRECTO A MEMORIA (DMA, del inglés direct memory access) permite a cierto tipo de componentes de una computadora acceder a la memoria del sistema para leer o escribir independientemente de la unidad central de procesamiento (CPU). Muchos sistemas hardware utilizan DMA, incluyendo controladores de unidades de disco, tarjetas gráficas y tarjetas de sonido. DMA es una característica esencial en todos los ordenadores modernos, ya que permite a dispositivos de diferentes velocidades comunicarse sin someter a la CPU a una carga masiva de interrupciones.

En computadores que no disponen de memoria cache, el DMA debe realizar su tarea evitando ocupar el bus de datos mientras la CPU realiza la fase de captación de la instrucción. A partir de estas dos posibilidades, existen dos tipos de transferencias de datos del DMA:

Transferencias modo ráfaga: Una vez que la CPU concede el bus al DMA, este no lo libera hasta que finaliza su tarea completamente.

Este tipo de transferencia se usa en sistemas que disponen de una memoria cache en la unidad de procesamiento, ya que mientras la CPU puede seguir trabajando utilizando la cache.

Transferencias modo robo de ciclo: Una vez que la CPU concede el bus al DMA, este lo vuelve a liberar al finalizar de transferir cada palabra. Teniendo que solicitar de nuevo el permiso de uso del bus a la CPU. Esta operación se repite hasta que el DMA finaliza la tarea. Este tipo de transferencia se suele usar en sistema que no disponen de memoria cache en la unidad de procesamiento, ya que de este modo, aunque la transferencia de datos tarda más en realizarse, la CPU puede seguir ejecutando instrucciones.

54
Q

El primer boceto de la arquitectura de un ordenador fue propuesto por:

a) Clive Sinclair
b) John Von Neumann
c) Edsger Dijkstra
d) Steve Jobs

A

El primer boceto de la arquitectura de un ordenador fue propuesto por:

a) Clive Sinclair

b) John Von Neumann

c) Edsger Dijkstra
d) Steve Jobs

55
Q

El registro de estados de un procesador:

a) Se almacena en la memoria principal del procesador
b) Almacena en cada momento el estado del procesador
c) Sirve para almacenar las condiciones de realización de las operaciones de la ALU
d) Los procesadores actuales no tienen registro de estados

A

El registro de estados de un procesador:

a) Se almacena en la memoria principal del procesador
b) Almacena en cada momento el estado del procesador

c) Sirve para almacenar las condiciones de realización de las operaciones de la ALU

d) Los procesadores actuales no tienen registro de estados

56
Q

En un sistema fuertemente acoplado (tightly coupled):

a) Los procesadores solo pueden acceder a los recursos mas cercanos, que ellos controlan
b) Los procesadores pueden acceder a todos los recursos del sistema, mediante paso de mensajes
c) El acceso es posible directamente para todos los procesadores, a la misma velocidad
d) El acceso es posible directamente para todos los procesadores, pero con variaciones de velocidad según la memoria accedida

A

En un sistema fuertemente acoplado (tightly coupled):

a) Los procesadores solo pueden acceder a los recursos mas cercanos, que ellos controlan
b) Los procesadores pueden acceder a todos los recursos del sistema, mediante paso de mensajes

c) El acceso es posible directamente para todos los procesadores, a la misma velocidad

d) El acceso es posible directamente para todos los procesadores, pero con variaciones de velocidad según la memoria accedida

57
Q

Indicar qué es cierto acerca de las interrupciones de Entrada/Salida:

a) Cuando se produce una interrupción, el registro contador de programa de la CPU cambia su valor, apuntando a la dirección de comienzo de la rutina de tratamiento de la interrupción.
b) Los controladores DMA, al acceder directamente a la memoria principal, no hacen uso de interrupciones.
c) Las interrupciones son generadas por la CPU para informar a los dispositivos periféricos de diferentes situaciones excepcionales en la ejecución de los programas.
d) Ninguna de las anteriores es cierta.

Operador Ayuntamiento Madrid 2010

A

Indicar qué es cierto acerca de las interrupciones de Entrada/Salida:

a) Cuando se produce una interrupción, el registro contador de programa de la CPU cambia su valor, apuntando a la dirección de comienzo de la rutina de tratamiento de la interrupción.

b) Los controladores DMA, al acceder directamente a la memoria principal, no hacen uso de interrupciones.
c) Las interrupciones son generadas por la CPU para informar a los dispositivos periféricos de diferentes situaciones excepcionales en la ejecución de los programas.
d) Ninguna de las anteriores es cierta.

58
Q

Señale la respuesta correcta:

a) Un proceso es equivalente a un hilo de ejecución.
b) Los hilos no pueden compartir entre ellos datos o espacios de direcciones.
c) Se tarda más en eliminar un hilo que un proceso.
d) Tanto los procesos como los hilos pueden crear sus propios hijos.

A

Señale la respuesta correcta:

a) Un proceso es equivalente a un hilo de ejecución.
b) Los hilos no pueden compartir entre ellos datos o espacios de direcciones.
c) Se tarda más en eliminar un hilo que un proceso.

d) Tanto los procesos como los hilos pueden crear sus propios hijos.

59
Q

¿De qué tipo de registro del procesador es el “registro de instrucción”?

a) Opaco
b) Transparente
c) De control
d) Ninguna respuesta es válida

A

¿De qué tipo de registro del procesador es el “registro de instrucción”?

a) Opaco

b) Transparente

c) De control
d) Ninguna respuesta es válida

60
Q

En referencia a Sistemas Operativos multiproceso tipo UNIX ¿Qué se entiende por “proceso zombi”?

a) Un proceso hijo que ha acabado de realizar sus tareas pero que el padre todavía no ha ejecutado la orden de esperar a que el hijo acabe.
b) Un proceso padre que se ha quedado bloqueado a la espera de que sus hijos acaben sus tareas pendientes.
c) Un par de procesos en el que el primero está a la espera de que el segundo proceso acabe y este segundo proceso.
d) Un proceso hijo que está bloqueado a la espera de que el proceso padre le envíe datos que necesita.

GSI-2007-LI

A

En referencia a Sistemas Operativos multiproceso tipo UNIX ¿Qué se entiende por “proceso zombi”?

a) Un proceso hijo que ha acabado de realizar sus tareas pero que el padre todavía no ha ejecutado la orden de esperar a que el hijo acabe.

b) Un proceso padre que se ha quedado bloqueado a la espera de que sus hijos acaben sus tareas pendientes.
c) Un par de procesos en el que el primero está a la espera de que el segundo proceso acabe y este segundo proceso.
d) Un proceso hijo que está bloqueado a la espera de que el proceso padre le envíe datos que necesita.

Proceso huérfano: Si sale un proceso padre y uno o más de sus procesos hijos aún se están ejecutando, esos procesos hijos se convertirán en procesos huérfanos. El proceso de inicio será adoptado por el proceso de inicio (proceso número 1), y el proceso de inicio completará el trabajo de recopilación del estado para ellos.

Proceso zombie o “defunct” (muerto) es un proceso que ha completado su ejecución pero aún tiene una entrada en la tabla de procesos, permitiendo al proceso que le ha creado leer el estado de su salida. Metafóricamente, el proceso hijo ha muerto pero su “alma” aún no ha sido recogida.

Un proceso hijo que ha acabado de realizar sus tareas pero que el padre todavía no ha ejecutado la orden de esperar a que el hijo acabe.

61
Q

La multiprogramación:

a) Se basa en el concepto de tiempo compartido
b) Aprovecha las ventajas de los canales de E/S y de las interrupciones
c) Reduce el tiempo de espera de un programa pero no elimina los tiempos muertos producidos por operaciones de E/S
d) La organización de los trabajos mediante colas o listas simplifica las funciones del supervisor respecto al de sistemas operativos convencionales

A

La multiprogramación:

a) Se basa en el concepto de tiempo compartido

b) Aprovecha las ventajas de los canales de E/S y de las interrupciones

c) Reduce el tiempo de espera de un programa pero no elimina los tiempos muertos producidos por operaciones de E/S
d) La organización de los trabajos mediante colas o listas simplifica las funciones del supervisor respecto al de sistemas operativos convencionales

62
Q

En un sistema operativo (S.O) con memoria virtual, cuando un proceso en ejecución genera un fallo de página:

a) Se cierran todos los procesos en ejecución ya que es un error grave del sistema operativo.
b) El S.O busca la página en memoria secundaria y la carga en memoria principal.
c) El S.O interrumpe la ejecución del proceso y lo pone en la cola de errores.
d) En un sistema con memoria virtual nunca hay fallos de página.

GSI-2014-LI

A

En un sistema operativo (S.O) con memoria virtual, cuando un proceso en ejecución genera un fallo de página:

a) Se cierran todos los procesos en ejecución ya que es un error grave del sistema operativo.

b) El S.O busca la página en memoria secundaria y la carga en memoria principal.

c) El S.O interrumpe la ejecución del proceso y lo pone en la cola de errores.
d) En un sistema con memoria virtual nunca hay fallos de página.

MEMORIA VIRTUAL

  • La memoria virtual permite ejecutar procesos que requieren más memoria que la disponible en el sistema, manteniendo en memoria principal solo aquella memoria que el proceso esté utilizando y el resto en el disco. De esta forma el usuario ya no debe preocuparse por las limitaciones de memoria física.
  • Cuando una página solicita no se encuentra en memoria principal se produce un “Fallo de página”. El “Fallo de página” genera un trap a nivel del SO, que activa una rutina de atención que carga la página en memoria principal. Se produce Hiperpaginación cuando hay un excesivo número de intercambios con el almacenamiento secundario.
  • Si la memoria está llena se ejecuta un algoritmo de reemplazo para tener en memoria principal las páginas más “importantes” y en disco (swap) las demás.
63
Q

En un sistema monoprocesador con mezcla de procesos de cálculo puro y procesos intensivos en E/S, el uso de una política de planificación FIFO provoca:

a) Un tiempo de ejecución excelente para los procesos con E/S intensiva o interactiva
b) Una gran ineficiencia, ya que los procesos de calculo intensivo se adueñan de la CPU
c) Una respuesta equilibrada, sin aprovechar el sistema en su totalidad
d) Todas son falsas

A

En un sistema monoprocesador con mezcla de procesos de cálculo puro y procesos intensivos en E/S, el uso de una política de planificación FIFO provoca:

a) Un tiempo de ejecución excelente para los procesos con E/S intensiva o interactiva

b) Una gran ineficiencia, ya que los procesos de calculo intensivo se adueñan de la CPU

c) Una respuesta equilibrada, sin aprovechar el sistema en su totalidad
d) Todas son falsas

ALGORITMOS DE PLANIFICACIÓN:

FCFS (First Come First Served) – No Apropiativo

La CPU es asignada a los procesos en el mismo orden que lo solicitan.

Ventajas: Sencillo de implementar (cola FIFO).

Inconvenientes: Mal tiempo de espera

  • Efecto convoy (procesos con largar ráfagas de CPU retrasan a procesos con ráfagas cortas).
  • No válido para procesos interactivos.
64
Q

Considerando las memorias VRAM, indique la respuesta que es falsa:

a) Incluyen una memoria DRAM y unos registros de desplazamiento que permiten acceso en forma serie
b) Están especialmente diseñadas para construir memorias de refresco de determinados gráficos
c) Es un tipo de RAM que no es dinámica
d) Equivale a Video RAM

A

Considerando las memorias VRAM, indique la respuesta que es falsa:

a) Incluyen una memoria DRAM y unos registros de desplazamiento que permiten acceso en forma serie
b) Están especialmente diseñadas para construir memorias de refresco de determinados gráficos

c) Es un tipo de RAM que no es dinámica

d) Equivale a Video RAM

Memoria gráfica de acceso aleatorio (Video Random Access Memory) es un tipo de memoria RAM que utiliza el controlador gráfico para poder manejar toda la información visual que le envía la CPU del sistema. La principal característica de esta clase de memoria es que es accesible de forma simultánea por dos dispositivos. De esta manera, es posible que la CPU grabe información en ella, mientras se leen los datos que serán visualizados en el monitor en cada momento. Por esta razón también se clasifica como Dual-Ported.

En un principio (procesadores de 8 bits) se llamaba así a la memoria solo accesible directamente por el procesador gráfico, debiendo la CPU cargar los datos a través de él.

65
Q

Indique cuál de las siguientes respuestas es FALSA. En los sistemas operativos, dentro del ámbito de las políticas de planificación de CPU, se debe mantener un equilibrio para conseguir:

a) Bajo tiempo de respuesta por tarea
b) Alta productividad para tareas que se ejecutan en segundo plano
c) Inanición de los procesos
d) Respetar la prioridad de los procesos

A1-SERV.CANARIO 2012

A

Indique cuál de las siguientes respuestas es FALSA. En los sistemas operativos, dentro del ámbito de las políticas de planificación de CPU, se debe mantener un equilibrio para conseguir:

a) Bajo tiempo de respuesta por tarea
b) Alta productividad para tareas que se ejecutan en segundo plano

c) Inanición de los procesos

d) Respetar la prioridad de los procesos

66
Q

La multiprogramación y el tiempo compartido, en los sistemas operativos, ocasionan:

a) Que haya que crear mecanismos de seguridad como cortafuegos y sistemas de alimentación ininterrumpida
b) Que haya que crear mecanismos de protección de injerencias entre diversos trabajos simultáneos, y entre diversos usuarios que quieran acceder a archivos o recursos como la impresora o los discos
c) Que haya que comprobar al apagar el ordenador si aún no han cerrado su sesión todos los usuarios
d) Que haya que crear sistemas de protección del monitor para evitar ataques no autorizados

A

La multiprogramación y el tiempo compartido, en los sistemas operativos, ocasionan:

a) Que haya que crear mecanismos de seguridad como cortafuegos y sistemas de alimentación ininterrumpida

b) Que haya que crear mecanismos de protección de injerencias entre diversos trabajos simultáneos, y entre diversos usuarios que quieran acceder a archivos o recursos como la impresora o los discos

c) Que haya que comprobar al apagar el ordenador si aún no han cerrado su sesión todos los usuarios
d) Que haya que crear sistemas de protección del monitor para evitar ataques no autorizados

67
Q

Entre las funciones de un sistema operativo se encuentra la gestión de procesos. Seleccione cuál de las siguientes afirmaciones es correcta:

a) Cualquier proceso puede causar la terminación de otro proceso realizando una llamada al sistema
b) Si un proceso se encuentra en estado “Terminado” (o Finalizado) significa que se ha ejecutado en su totalidad
c) Se dice que un proceso se encuentra en estado “Zombi” cuando está esperando a que otro proceso termine de ejecutarse
d) Cuando un nuevo usuario entra en el sistema se crea un nuevo proceso que quedará en estado “listo” (preparado para se ejecutado)

GSI-2009-LI

A

Entre las funciones de un sistema operativo se encuentra la gestión de procesos. Seleccione cuál de las siguientes afirmaciones es correcta:

a) Cualquier proceso puede causar la terminación de otro proceso realizando una llamada al sistema
b) Si un proceso se encuentra en estado “Terminado” (o Finalizado) significa que se ha ejecutado en su totalidad
c) Se dice que un proceso se encuentra en estado “Zombi” cuando está esperando a que otro proceso termine de ejecutarse

d) Cuando un nuevo usuario entra en el sistema se crea un nuevo proceso que quedará en estado “listo” (preparado para se ejecutado)

68
Q

Dentro de los modos de direccionamiento se llama direccionamiento indirecto a:

a) Cuando el objeto se halla direccionado en la propia instrucción
b) Cuando el objeto direccionado es la dirección del objeto buscado
c) Cuando el objeto está en un dirección predeterminada
d) Cuando se expresa un desplazamiento sobre una dirección base

A

Dentro de los modos de direccionamiento se llama direccionamiento indirecto a:

a) Cuando el objeto se halla direccionado en la propia instrucción

b) Cuando el objeto direccionado es la dirección del objeto buscado

c) Cuando el objeto está en un dirección predeterminada
d) Cuando se expresa un desplazamiento sobre una dirección base

69
Q

Señale la frase ERRÓNEA acerca de los sistemas de tiempo compartido:

a) El algoritmo de round robin se basa en asignar por turno períodos de tiempo limitados a cada uno de los procesos.
b) El algoritmo del banquero impide asignar a un proceso un recurso de un tipo del que ya no queden más recursos libres.
c) El aplazamiento indefinido se produce cuando un proceso solicita un recurso que otro proceso ha dejado de usar sin marcarlo como “desocupado”.
d) El mecanismo de no apropiación evita que puedan producirse “deadlocks” entre procesos.

A1-2011-LI

A

Señale la frase ERRÓNEA acerca de los sistemas de tiempo compartido:

a) El algoritmo de round robin se basa en asignar por turno períodos de tiempo limitados a cada uno de los procesos.
b) El algoritmo del banquero impide asignar a un proceso un recurso de un tipo del que ya no queden más recursos libres.
c) El aplazamiento indefinido se produce cuando un proceso solicita un recurso que otro proceso ha dejado de usar sin marcarlo como “desocupado”.

d) El mecanismo de no apropiación evita que puedan producirse “deadlocks” entre procesos.

Tipos de planificación:

Planificación no apropiativa (non-preemptive):

  • Algoritmos no expulsivos.
  • Los procesos se ejecutan hasta que terminan o se bloquean.
  • Sencillo de implementar.
  • Rendimiento negativo en general.

Planificación aproviativa (preemptive):

  • Algoritmos expulsivos.
  • Los procesos pueden ser expulsados de la CPU.
  • Mayor coste de implementación. Necesitan soporte hardware adicional (relojes).
  • Mejora el servicio y evita monopolización de la CPU.
70
Q

La posibilidad de un sistema operativo de ejecutar diferentes partes de un programa simultáneamente, se denomina:

a) Multitasking
b) Multithreading
c) Multiuser
d) Multiprocessing

A

La posibilidad de un sistema operativo de ejecutar diferentes partes de un programa simultáneamente, se denomina:

a) Multitasking

b) Multithreading

c) Multiuser
d) Multiprocessing

71
Q

De las siguientes afirmaciones referentes a los sistemas operativos, ¿Cuál es falsa?

a) El scheduler decide los candidatos a competir por los recursos
b) El dispatcher decide que proceso se ejecuta
c) Para prevenir el deadlock se puede usar el “algoritmo del banquero”
d) Ninguna de las anteriores es verdadera

A

De las siguientes afirmaciones referentes a los sistemas operativos, ¿Cuál es falsa?

a) El scheduler decide los candidatos a competir por los recursos
b) El dispatcher decide que proceso se ejecuta
c) Para prevenir el deadlock se puede usar el “algoritmo del banquero”

d) Ninguna de las anteriores es verdadera

A, B y C son ciertas, luego es falso que ninguna sea verdadera

72
Q

En un esquema de multiprogramación en memoria real, independientemente de que esté basado en particiones de tamaño fijas o de tamaño variable, ¿en qué consiste el algoritmo del “siguiente ajuste” para elegir el tamaño de la partición en la que alojar un programa?

a) Se asigna el primer hueco que sea mayor al tamaño deseado
b) Se asigna el primer hueco que sea mayor al tamaño deseado, pero dejando un apuntador al lugar en donde se asigno el último hueco
c) Se asigna el hueco cuyo tamaño exceda en la mayor cantidad al tamaño deseado
d) Se asigna el hueco cuyo tamaño exceda en la menor cantidad al tamaño deseado

A2-2010-PI

A

En un esquema de , independientemente de que esté basado en particiones de tamaño fijas o de tamaño variable, ¿en qué consiste el algoritmo del “siguiente ajuste” para elegir el tamaño de la partición en la que alojar un programa?

a) Se asigna el primer hueco que sea mayor al tamaño deseado

b) Se asigna el primer hueco que sea mayor al tamaño deseado, pero dejando un apuntador al lugar en donde se asigno el último hueco

c) Se asigna el hueco cuyo tamaño exceda en la mayor cantidad al tamaño deseado
d) Se asigna el hueco cuyo tamaño exceda en la menor cantidad al tamaño deseado

Existen varios algoritmos para elegir el mejor tamaño de partición para un programa, en memoria real y son.

Primer ajuste: Se asigna el primer hueco que sea mayor al tamaño deseado.

Mejor ajuste: Se asigna el hueco cuyo tamaño exceda en la menor cantidad al tamaño deseado. Requiere de una búsqueda exhaustiva.

Peor ajuste: Se asigna el hueco cuyo tamaño exceda en la mayor cantidad al tamaño deseado. Requiere también de una búsqueda exhaustiva.

El siguiente ajuste: Es igual que el “primer ajuste” con la diferencia que se deja un apuntador al lugar en donde se asignó el último hueco para realizar la siguiente búsqueda a partir de él.

Ajuste rápido: Se mantienen listas ligadas separadas de acuerdo a los tamaños de los huecos, para así buscarle a los procesos un hueco más rápido en la cola correspondiente.

73
Q

El sistema operativo que se diseña pensando en los tipos de datos y recursos que va a manejar: ficheros, procesos, memoria, hardware, etc., y en las propiedades y servicios que éstos pueden prestar, se construye siguiendo un modelo:

a) Monolítico.
b) Estratificado.
c) Cliente/servidor.
d) Orientado a objetos.

A1 Junta de Extremadura 2015

A

El sistema operativo que se diseña pensando en los tipos de datos y recursos que va a manejar: ficheros, procesos, memoria, hardware, etc., y en las propiedades y servicios que éstos pueden prestar, se construye siguiendo un modelo:

a) Monolítico.
b) Estratificado.
c) Cliente/servidor.

d) Orientado a objetos.

74
Q

¿Cuáles son las fases ordenadas correctamente de la ejecución de instrucciones en un procesador?

a) Decodificación, Prefetch, fetch, ejecución, escritura de resultados en memoria principal o en los registros
b) Prefetch, decodificación, codificación, ejecución, escritura de resultados en memoria principal o en los registros
c) Prefetch, fetch, decodificación, ejecución, escritura de resultados en memoria principal o en los registros
d) Ninguna de las anteriores

A

¿Cuáles son las fases ordenadas correctamente de la ejecución de instrucciones en un procesador?

a) Decodificación, Prefetch, fetch, ejecución, escritura de resultados en memoria principal o en los registros
b) Prefetch, decodificación, codificación, ejecución, escritura de resultados en memoria principal o en los registros

c) Prefetch, fetch, decodificación, ejecución, escritura de resultados en memoria principal o en los registros

d) Ninguna de las anteriores

  • Fetch o Captación: En la que la instrucción es captada desde la memoria RAM y copiada a dentro del procesador.
  • Decode o Descodificacion: En la que la instrucción previamente captada es descodificada y enviada a las unidades de ejecución
  • Execute o Ejecución: Donde la instrucción es resuelta y el resultado escrito en los registros internos del procesador o en una dirección de memoria de la RAM
75
Q

Un buen sistema operativo, en cuanto a la gestión de memoria principal, debe:

a) Repartirla entre los diversos procesos, de forma que cada uno sepa desde el comienzo que solo cuenta con la que se le ha asignado. Así el programador sabe lo que tiene que hacer en cada momento en cuanto al trasiego de datos a la memoria principal
b) No afectarle demasiado, dejando que ella misma se gestione sin intervención del sistema operativo
c) Asignar memoria dinámicamente a los programas según la vayan necesitando, de forma transparente para el programador
d) Reservarse una cantidad pequeña para sí mismo, dejando que cada aplicación tenga mayor cantidad limitada de forma fija

A

Un buen sistema operativo, en cuanto a la gestión de memoria principal, debe:

a) Repartirla entre los diversos procesos, de forma que cada uno sepa desde el comienzo que solo cuenta con la que se le ha asignado. Así el programador sabe lo que tiene que hacer en cada momento en cuanto al trasiego de datos a la memoria principal
b) No afectarle demasiado, dejando que ella misma se gestione sin intervención del sistema operativo

c) Asignar memoria dinámicamente a los programas según la vayan necesitando, de forma transparente para el programador

d) Reservarse una cantidad pequeña para sí mismo, dejando que cada aplicación tenga mayor cantidad limitada de forma fija

76
Q

¿Cuál de los siguientes sistemas operativos no es un sistema multiusuario que permite a sus usuarios iniciar sesiones en ellos mediante terminales?

a) Unix
b) Z/OS
c) Microsoft Windows
d) Todas los sistemas anteriores lo permiten

A

¿Cuál de los siguientes sistemas operativos no es un sistema multiusuario que permite a sus usuarios iniciar sesiones en ellos mediante terminales?

a) Unix
b) Z/OS
c) Microsoft Windows

d) Todas los sistemas anteriores lo permiten

77
Q

Señale cuál de las siguientes NO es una de las premisas que tiene que lograr un Sistema Operativo para ejecutar correctamente las secciones críticas de sus procesos:

a) Exclusión mutua
b) Progreso
c) Espera limitada
d) Inclusión indefinida

Examen TIC A1 Servicio Canario Salud 2012

A

Señale cuál de las siguientes NO es una de las premisas que tiene que lograr un Sistema Operativo para ejecutar correctamente las secciones críticas de sus procesos:

a) Exclusión mutua
b) Progreso
c) Espera limitada

d) Inclusión indefinida

78
Q

La técnica que permite solapar instrucciones mediante la división de su ejecución en etapas se denomina:

a) Parametrización.
b) Segmentación.
c) Multiplexación.
d) Paginación.

GSI-A2-2013

A

La técnica que permite solapar instrucciones mediante la división de su ejecución en etapas se denomina:

a) Parametrización.

b) Segmentación.

c) Multiplexación.
d) Paginación.

79
Q

¿Qué se entiende por quantum?

a) El porcentaje de tiempo durante el cual dos o más componentes están siendo utilizados simultáneamente
b) El porcentaje de tiempo durante el cual los distintos dispositivos del sistema están siendo utilizados en tareas del sistema
c) La cantidad de tiempo ininterrumpido de la CPU que un sistema de tiempo compartido asigna a los diferentes trabajos
d) El número de programas sacados de memoria por unidad de tiempo a causa de falta de espacio o para reorganizar el mismo

A

¿Qué se entiende por quantum?

a) El porcentaje de tiempo durante el cual dos o más componentes están siendo utilizados simultáneamente
b) El porcentaje de tiempo durante el cual los distintos dispositivos del sistema están siendo utilizados en tareas del sistema

c) La cantidad de tiempo ininterrumpido de la CPU que un sistema de tiempo compartido asigna a los diferentes trabajos

d) El número de programas sacados de memoria por unidad de tiempo a causa de falta de espacio o para reorganizar el mismo

80
Q

¿Cuál de los siguientes sistemas operativos es un sistema orientado a objetos?

a) Windows.
b) Linux.
c) OS/400.
d) VMS.

A

¿Cuál de los siguientes sistemas operativos es un sistema orientado a objetos?

a) Windows.
b) Linux.

c) OS/400.

d) VMS.

81
Q

¿Cuál de las afirmaciones siguientes es cierta con respecto a la técnica de gestión de memoria conocida como “paginación”?

a) Consiste en determinar que espacio vacío en la memoria principal es el mas indicado para ser asignado a un proceso
b) El espacio de memoria se divide en secciones físicas de igual tamaño llamadas marcos de pagina, las cuales sirven como unidad de almacenamiento de información
c) Es la memoria que queda desperdiciada al usar los métodos de gestión de memoria tales como la asignación
d) Es un esquema de manejo de memoria mediante el cual la estructura del programa refleja su división lógica; llevándose a cabo una agrupación lógica de la información en bloques de tamaño variable denominados segmentos

A1-2007-LI

A

¿Cuál de las afirmaciones siguientes es cierta con respecto a la técnica de gestión de memoria conocida como “paginación”?

a) Consiste en determinar que espacio vacío en la memoria principal es el mas indicado para ser asignado a un proceso

b) El espacio de memoria se divide en secciones físicas de igual tamaño llamadas marcos de pagina, las cuales sirven como unidad de almacenamiento de información

c) Es la memoria que queda desperdiciada al usar los métodos de gestión de memoria tales como la asignación
d) Es un esquema de manejo de memoria mediante el cual la estructura del programa refleja su división lógica; llevándose a cabo una agrupación lógica de la información en bloques de tamaño variable denominados segmentos

SEGMENTACIÓN:

  • Dividir el programa en segmentos variables (text, data, stack)
  • Ubicar los segmentos en una zona libre y contigua

Produce fragmentación externa → Puede haber mucha memoria libre (pequeños huecos) pero donde no entra un segmento grande (habría que fragmentar).

PAGINACIÓN

  • Dividir el programa en bloques de tamaño fijo (página).
  • Dividir la memoria en zonas de tamaño fijo (marcos).
  • Ubicar las páginas en marcos libres
  • No produce fragmentación externa, pero si interna (ej. si el ultimo marco no está relleno).
  • Técnica adecuada para la gestión de memoria virtual.
  • La MMU nos ayuda con el TLB[1] (cache de la Page Table) a realizar la traducción.

[1] TLB – Translation Lookaside Buffer - Tabla de páginas en cache.

82
Q

En el contexto de la gestión de memoria virtual, un «fallo de página» se produce cuando:

a) Existe un problema físico en la unidad de memoria, que queda desactivada.
b) No se encuentra una página en el disco, por ejemplo, por estar éste dañado.
c) Se está buscando una página y ésta no está cargada en memoria, por lo que habrá que buscarla en el disco.
d) Se está buscando una página y no está en memoria ni tampoco en el disco.

A2-2011-PI

A

En el contexto de la gestión de memoria virtual, un «fallo de página» se produce cuando:

a) Existe un problema físico en la unidad de memoria, que queda desactivada.
b) No se encuentra una página en el disco, por ejemplo, por estar éste dañado.

c) Se está buscando una página y ésta no está cargada en memoria, por lo que habrá que buscarla en el disco.

d) Se está buscando una página y no está en memoria ni tampoco en el disco.

MMU (Unidad de gestión de memoria), es un dispositivo de hardware formado por un grupo de circuitos integrados, responsable del manejo de los accesos a la memoria por parte de la Unidad de Procesamiento Central (CPU).

Entre las funciones de este dispositivo se encuentran la traducción de las direcciones lógicas (o virtuales) a direcciones físicas (o reales), la protección de la memoria, el control de caché y, en arquitecturas de computadoras más simples (especialmente en sistemas de 8 bits), bank switching.

Cuando la CPU intenta acceder a una dirección de memoria lógica, la MMU realiza una búsqueda en una memoria caché especial (TLB, Translation Lookaside Buffer), que mantiene la parte de la tabla de páginas usada hace menos tiempo.

En esta memoria se mantienen “entradas de la tabla de páginas -PTE”, donde se pueden rescatar las direcciones físicas correspondientes a algunas direcciones lógicas, de forma directa. Cuando la dirección requerida por la CPU se encuentra en el TLB, su traducción a dirección real o física es entregada, en lo que se conoce como “acierto en el TLB” (TLB hit).

En otro caso, cuando la dirección buscada no se encuentra en el TLB (fallo en el TLB), la MMU busca en la tabla de páginas del proceso utilizando el número de página como entrada a la misma. En la entrada de la tabla de páginas del proceso se encuentra un bit de presencia, que indica si la página buscada está en memoria principal. Si el bit de presencia está activado, se carga esta PTE en el TLB y se devuelve la dirección física. En caso contrario, se informa al sistema operativo de la situación, mediante un fallo de página“.

Es el sistema operativo el encargado de realizar los ajustes necesarios (esto es, cargar la página en memoria física) usando uno de los algoritmos de reemplazo de páginas, para continuar con la ejecución desde la instrucción que causó el fallo.

Un beneficio fundamental de la MMU es la posibilidad de implementar protección de memoria, evitando que los programas accedan a porciones de memoria prohibidas. Por ejemplo, se puede evitar que un programa acceda o modifique sectores de memoria de otros programas.

83
Q

Cuál es la misión del planificador (scheduler) de un SO:

a) Seleccionar el proceso que se va a ejecutar a continuación
b) Poner en ejecución el proceso seleccionado
c) Controlar la memoria principal
d) Expulsar al proceso en ejecución

A

Cuál es la misión del planificador (scheduler) de un SO:

a) Seleccionar el proceso que se va a ejecutar a continuación

b) Poner en ejecución el proceso seleccionado
c) Controlar la memoria principal
d) Expulsar al proceso en ejecución

84
Q

¿A qué se refiere un problema de fragmentación interna de la memoria de un sistema operativo?

a) Cuando el programa es más pequeño que el marco de página asignado
b) Cuando quedan zonas de memoria libres pequeñas que no se pueden utilizar
c) Cuando un programa utiliza zonas de memoria diferentes en cada sesión para escribir sus datos
d) Ninguna de las anteriores

A

¿A qué se refiere un problema de fragmentación interna de la memoria de un sistema operativo?

a) Cuando el programa es más pequeño que el marco de página asignado

b) Cuando quedan zonas de memoria libres pequeñas que no se pueden utilizar
c) Cuando un programa utiliza zonas de memoria diferentes en cada sesión para escribir sus datos
d) Ninguna de las anteriores

LA FRAGMENTACIÓN INTERNA** es un tipo de fragmentación que tiene lugar cuando se asigna una memoria más grande a un programa en lugar de la requerida. Aquí el espacio libre se conoce como fragmentación interna. Por otro lado, la **FRAGMENTACIÓN EXTERNAes el tipo de espacio libre que se forma entre bloques de memoria no continuos.

La razón de la fragmentación interna es la partición de la memoria en bloques de tamaño fijo. Por otro lado, la fragmentación externa es el proceso que tiene lugar cuando la memoria se divide en bloques de tamaño variable según el tamaño de los diferentes procesos.

85
Q

Copia “cercana” de datos que permite un acceso más rápido que el almacenamiento habitual:

a) Registro
b) Caché
c) Buffer
d) Pipelining

A

Copia “cercana” de datos que permite un acceso más rápido que el almacenamiento habitual:

a) Registro

b) Caché

c) Buffer
d) Pipelining

MEMORIA VIRTUAL

  • La memoria virtual permite ejecutar procesos que requieren más memoria que la disponible en el sistema, manteniendo en memoria principal solo aquella memoria que el proceso esté utilizando y el resto en el disco. De esta forma el usuario ya no debe preocuparse por las limitaciones de memoria física.
  • Cuando una página solicita no se encuentra en memoria principal se produce un “Fallo de página”. El “Fallo de página” genera un trap a nivel del SO, que activa una rutina de atención que carga la página en memoria principal. Se produce Hiperpaginación cuando hay un excesivo número de intercambios con el almacenamiento secundario.
  • Si la memoria está llena se ejecuta un algoritmo de reemplazo para tener en memoria principal las páginas más “importantes” y en disco (swap) las demás.
86
Q

¿Cuál de las siguientes políticas de planificación es de tipo preemptive?

a) Shortest Job First (SJF)
b) Shortest Remaining Time First (SRTF)
c) First-come, first-served (FCFS)
d) Shortest Process Next (SPN)

A2-2010-LI

A

¿Cuál de las siguientes políticas de planificación es de tipo preemptive?

a) Shortest Job First (SJF)

b) Shortest Remaining Time First (SRTF)

c) First-come, first-served (FCFS)
d) Shortest Process Next (SPN)

Planificación aproviativa (preemptive):

  • Algoritmos expulsivos.
  • Los procesos pueden ser expulsados de la CPU.
  • Mayor coste de implementación. Necesitan soporte hardware adicional (relojes).
  • Mejora el servicio y evita monopolización de la CPU.

FCFS (First Come First Served) – No Apropiativo

SJF (Shortest Job First) – No Apropiativo

Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.

Ventajas

  • Optimiza el tiempo de espera
  • Favorece los procesos orientados a E/S

Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU

Inanición de los procesos con rachas de CPU largas

SRTF (Shortest Remaining Time First) - Apropiativo

Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)

87
Q

En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de

a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema
b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso
d) Decidir si la planificación es apropiativa o no apropiativa

GSI-2018-LI

A

En un sistema operativo con tres niveles de planificación (corto plazo, medio plazo y largo plazo), el planificador a largo plazo se encarga de

a) Decidir qué trabajos (conjunto de procesos) son candidatos a convertirse en procesos listos para competir por los recursos del sistema

b) Decidir qué procesos se suspenden o se reanudan para lograr ciertas metas de rendimiento
c) Decidir qué proceso, de los que ya están preparados, es al que le corresponde estar ejecutándose en la unidad central de proceso
d) Decidir si la planificación es apropiativa o no apropiativa.

PRINCIPALES PLANIFICADORES DE CPU

Planificador a largo plazo:

  • Selecciona procesos de la cola de esperando ejecución y los carga a memoria
  • Controla el grado de multiprogramación. Es importante que elija un conjunto equilibrado de procesos.
  • Se ejecuta con poca frecuencia.

Planificador a corto plazo:

  • Selecciona entre los procesos preparados en memoria y les asigna la CPU.
  • Se ejecuta con mucha frecuencia.

Planificador a medio plazo: Decide qué proceso pasa de la memoria principal a la secundaria (memoria virtual) o viceversa.

88
Q

¿Cuál se corresponde con la planificación del procesador a corto plazo?

a) Dispatcher
b) Scheduler
c) Planificator
d) Long term planning

A

¿Cuál se corresponde con la planificación del procesador a corto plazo?

a) Dispatcher

b) Scheduler
c) Planificator
d) Long term planning

89
Q

En el ámbito de los sistemas operativos, entre los algoritmos de planificación de procesos que utilizan “quantum” NO se incluye:

a) Round Robin.
b) Planificación con colas de niveles múltiples.
c) Planificación con colas de retroalimentación de niveles múltiples.
d) Planificación del tiempo restante más corto (SRT).

GSI-2007-LI

A

En el ámbito de los sistemas operativos, entre los algoritmos de planificación de procesos que utilizan “quantum” NO se incluye:

a) Round Robin.
b) Planificación con colas de niveles múltiples.
c) Planificación con colas de retroalimentación de niveles múltiples.

d) Planificación del tiempo restante más corto (SRT).

SJF (Shortest Job First) – No Apropiativo

Primero el que menos tiempo total de CPU requiere (utilidad teórica). Se escoge el proceso de la cola de preparados con una próxima racha de CPU más corta y se ejecuta hasta que se termine o se suspenda.

Ventajas

  • Optimiza el tiempo de espera
  • Favorece los procesos orientados a E/S

Desventajas: Es costoso averiguar cuándo dura la siguiente racha de CPU

Inanición de los procesos con rachas de CPU largas

SRTF (Shortest Remaining Time First) - Apropiativo

Primero al que menos tiempo de CPU le queda para acabar. Versión apropiativa de SJF (como el SJF, solo que puede echar a los procesos)