SO APUNTES Y EXAMENES (2014)

Examen Español
Universidad Universidad Politécnica de Cataluña (UPC)
Grado Ingeniería Informática - 5º curso
Asignatura SO
Año del apunte 2014
Páginas 80
Fecha de subida 10/09/2014
Descargas 1
Subido por

Descripción

Examenes resueltos y apuntes y ejercicios

Vista previa del texto

T2-Procesos Índice  Conceptos relacionados con la Gestión de procesos  Servicios básicos para gestionar procesos (basado en Linux)  Comunicación entre procesos  Signals Linux y Sincronización  Gestión interna de los procesos  Datos: PCB  Estructuras de gestión: Listas, colas etc, relacionadas principalmente con el estado del proceso  Mecanismo de cambio de contexto. Concepto y pasos básicos  Planificación  Relación entre las llamadas a sistema de gestión de procesos y la gestión interna del S.O.
 Protección y seguridad 1.2 Definición Tareas del sistema operativo Concurrencia y paralelismo Estados de los procesos Propiedades de un proceso en Linux CONCEPTOS 1.3 Concepto de proceso  Un proceso es la representación del SO de un programa en ejecución.
 Un programa ejecutable básicamente es un código y una definición de datos, al ponerlo en ejecución necesitamos:  Asignarle memoria para el código, los datos y la pila  Inicializar los registros de la cpu para que se empiece a ejecutar  Ofrecer acceso a los dispositivos (ya que necesitan acceso en modo kernel)  Muchas más cosas que iremos viendo  Para gestionar la información de un proceso, el sistema utiliza una estructura de datos llamada PCB (Process Control Block)  Cada vez que ponemos un programa a ejecutar, se crea un nuevo proceso  Pueden haber limitaciones en el sistema 1.4 Procesos: ¿Como se hace? shell # gedit p1.c # gcc –o p1 p1.c # p1 Crear nuevo proceso Crear nuevo proceso Ejecutar “gedit p1.c” Ejecutar “gcc p1 –o p1 p1.c” Terminar proceso Terminar ejecución Llamadas a sistema Kernel 1.5 Crear PCB Inicializar PCB Reservar memoria Copiar código, datos…etc Asignar cpu ….
Liberar recursos Liberar PCB Utilización eficiente de la CPU  En un sistema de propósito general, lo habitual es tener varios procesos a la vez, de forma que se aproveche al máximo los recursos de la máquina  ¿Por qué nos puede interesar ejecutar múltiples procesos simultáneamente?  Si tenemos varios procesadores podemos ejecutar más procesos a la vez, o uno mismo usando varios procesadores  Aprovechar el tiempo de acceso a dispositivos (Entrada/Salida) de un proceso para que otros procesos usen la CPU  Si el SO lo gestiona bien, consigue la ilusión de que la máquina tiene más recursos (CPUs) de los que tiene realmente 1.6 Concurrencia  Concurrencia es la capacidad de ejecutar varios procesos de forma simultánea  Si realmente hay varios a la vez es paralelismo (arquitectura multiprocesador o multi-core) Tiempo  CPU0 Proc. 0 CPU1 Proc. 1 CPU2 Proc 2 Si es el SO el que genera un paralelismo virtual mediante compartición de recursos se habla de concurrencia CPU0 Proc. 0 Proc. 1 Proc. 2 Proc. 0 Tiempo 1.7 Proc. 1 Proc. 2 Proc. 0 Proc. 1 Proc. 2 … Concurrencia  Se dice que varios procesos son concurrentes cuando se tienen la capacidad de ejecutarse en paralelo si la arquitectura lo permite  Se dice que varios procesos son secuenciales si, independientemente de la arquitectura, se ejecutarán uno después del otro (cuando termina uno empieza el siguiente). En este caso, es el programador el que fuerza que esto sea así mediante sincronizaciones.
 Poniendo un waitpid entre un fork y el siguiente  Mediante signals (eventos)  Paralelismo es cuando varios procesos concurrentes se ejecutan de forma simultánea:  Depende de la máquina  Depende del conjunto de procesos  Depende del SO 1.8 Estados de un proceso  No es normal que un proceso esté todo el tiempo utilizando la CPU, durante periodos de su ejecución podemos encontrarlo:  Esperando datos de algún dispositivo : teclado, disco, red, etc  Esperando información de otros procesos  Para aprovechar el HW tenemos:  Sistemas multiprogramados: múltiples procesos activos. Cada proceso tiene su información en su propio PCB.
 El SO sólo asigna CPU a aquellos procesos que están utilizándola.
 El SO tiene “clasificados” los procesos en función de “que están haciendo”, normalmente a esto se llama el “ESTADO” del proceso  El estado suele gestionarse o con un campo en el PCB o teniendo diferentes listas o colas con los procesos en un estado concreto.
1.9 Estados de un proceso  Cada SO define un grafo de estados, indicando que eventos generan transiciones entre estados.
 El grafo define que transiciones son posible y como se pasa de uno a otro  El grafo de estados, muy simplificado, podría ser:  run: El proceso tiene asignada una cpu y está ejecutándose  ready: El proceso está preparado para ejecutarse pero está esperando que se le asigne una CPU  blocked: El proceso no tiene/consume CPU, está bloqueado esperando un que finalice una entrada/salida de datos o la llegada de un evento  zombie: El proceso ha terminado su ejecución pero aún no ha desaparecido de las estructuras de datos del kernel  Linux 1.10 Ejemplo diagrama de estados Crear proceso (fork) READY Fin E/S bloqueante O evento recibido Seleccionado Para ejecutar Fin tiempo CPU BLOCKED ZOMBIE RUN Fin ejecución Proceso (exit) E/S bloqueante (open/read/write) O esperando un evento (pause) Los estados y las transiciones entre ellos dependen del sistema.
Este diagrama es solo un ejemplo 1.11 Ejemplo estados de un proceso  Objetivo: Hay que entender la relación entre las características del SO y el diagrama de estados que tienen los procesos  Si el sistema es multiprogramado  READY, RUN  Si el sistema permite e/s bloqueante  BLOCKED  etc 1.12 Linux: Propiedades de un proceso  Un proceso incluye, no sólo el programa que ejecuta, sino toda la información necesaria para diferenciar una ejecución del programa de otra.
     Toda esta información se almacena en el kernel, en el PCB.
En Linux, por ejemplo, las propiedades de un proceso se agrupan en tres: la identidad, el entorno, y el contexto.
Identidad  Define quién es (identificador, propietario, grupo) y qué puede hacer el proceso (recursos a los que puede acceder) Entorno  Parámetros (argv en un programa en C) y variables de entorno (HOME, PATH, USERNAME, etc) Contexto  Toda la información que define el estado del proceso, todos sus recursos que usa y que ha usado durante su ejecución.
1.13 Linux: Propiedades de un proceso (2)  La IDENTIDAD del proceso define quien es y por lo tanto determina que puede hacer   Process ID (PID).
 Es un identificador ÚNICO para el proceso. Se utiliza para identificar un proceso dentro del sistema. En llamadas a sistema identifica al proceso al cual queremos enviar un evento, modificar, etc  El kernel genera uno nuevo para cada proceso que se crea Credenciales  Cada proceso está asociado con un usuario (userID) y uno o más grupos (groupID). Estas credenciales determinan los derechos del proceso a acceder a los recursos del sistema y ficheros.
1.14 -Creación -Mutación (carga de un ejecutable nuevo) -Finalización -Espera SERVICIOS BÁSICOS PARA GESTIONAR PROCESOS 1.15 Servicios y funcionalidad  El sistema nos ofrece como usuarios un conjunto de funciones (llamadas a sistema) para gestionar procesos  Crear /Planificar/Eliminar procesos  Bloquear/Desbloquear procesos  Proporcionar mecanismos de sincronización  Proporcionar mecanismos de comunicación  Memoria compartida  Dispositivos especiales  Gestión de signals 1.16 Creación de procesos  Cuando un proceso crea otro, se establece una relación jerárquica que se denomina padre-hijo. A su vez, el proceso hijo (y el padre) podrían crear otros procesos generándose un árbol de procesos.
P0 P1 P2 P4 P3  Hijos de P0 Hijos de P1 Los procesos se identifican en el sistema mediante un process identifier (PID)  El SO decide aspectos como por ejemplo:  Recursos: El proceso hijo, ¿comparte los recursos del padre?  Planificación: El proceso hijo, ¿se ejecuta antes que el padre?  Espacio de direcciones. ¿Qué código ejecuta el proceso hijo? ¿El mismo?¿Otro? 1.17 Creación de procesos: opciones(Cont)  Planificación El padre y el hijo se ejecutan concurrentemente (UNIX)  El padre espera hasta que el hijo termina (se sincroniza)  Espacio de direcciones (rango de memoria válido)  El hijo es un duplicado del padre (UNIX), pero cada uno tiene su propia memoria física. Además, padre e hijo, en el momento de la creación, tienen el mismo contexto de ejecución (los registros de la CPU valen lo mismo)  El hijo ejecuta un código diferente  UNIX  fork system call. Crea un nuevo proceso. El hijo es un clon del padre  exec system call. Reemplaza (muta) el espacio de direcciones del proceso con un nuevo programa. El proceso es el mismo.
 1.18 Servicios básicos (UNIX) Servicio Llamada a sistema Crear proceso fork Cambiar ejecutable=Mutar proceso exec (execlp) Terminar proceso exit Esperar a proceso hijo (bloqueante) wait/waitpid Devuelve el PID del proceso getpid Devuelve el PID del padre del proceso getppid  Una llamada a sistema bloqueante es aquella que puede bloquear al proceso, es decir, forzar que deje el estado RUN (abandone la CPU) y pase a un estado en que no puede ejecutarse (WAITING, BLOCKED, …., depende del sistema) 1.19 Crear proceso: fork en UNIX int fork();  Un proceso crea un proceso nuevo. Se crea una relación jerárquica padre- hijo  El padre y el hijo se ejecutan de forma concurrente  La memoria del hijo se inicializa con una copia de la memoria del padre  Código/Datos/Pila  El hijo inicia la ejecución en el punto en el que estaba el padre en el momento de la creación  Program Counter hijo= Program Counter padre  Valor de retorno del fork es diferente (es la forma de diferenciarlos en el código):  Padre recibe el PID del hijo  Hijo recibe un 0.
1.20 Creación de procesos y herencia  El hijo HEREDA algunos aspectos del padre y otros no.
 HEREDA (recibe una copia privada de….)  El espacio de direcciones lógico (código, datos, pila, etc).
 La memoria física es nueva, y contiene una copia de la del padre (en el tema 3 veremos optimizaciones en este punto)  La tabla de programación de signals  Los dispositivos virtuales  El usuario /grupo (credenciales)  Variables de entorno  NO HEREDA (sino que se inicializa con los valores correspondientes)  PID, PPID (PID de su padre)  Contadores internos de utilización (Accounting)  Alarmas y signals pendientes (son propias del proceso) 1.21 Terminar ejecución/Esperar que termine    Un proceso puede acabar su ejecución voluntaria (exit) o involuntariamente (signals) Cuando un proceso quiere finalizar su ejecución (voluntariamente), liberar sus recursos y liberar las estructuras de kernel reservadas para él, se ejecuta la llamada a sistema exit.
Si queremos sincronizar el padre con la finalización del hijo, podemos usar waitpid: El proceso espera (si es necesario se bloquea el proceso) a que termine un hijo cualquiera o uno concreto  waitpid(-1,NULL,0)  Esperar (con bloqueo si es necesario) a un hijo cualquiera waitpid(pid_hijo,NULL,0) Esperar (con bloqueo si es necesario) a un hijo con pid=pid_hijo El hijo puede enviar información de finalización (exit code) al padre mediante la llamada a sistema exit y el padre la recoge mediante wait o waitpid     El SO hace de intermediario, la almacena hasta que el padre la consulta Mientras el padre no la consulta, el PCB no se libera y el proceso se queda en estado ZOMBIE (defunct) Conviene hacer wait/waitpid de los procesos que creamos para liberar los recursos ocupados del kernel Si un proceso muere sin liberar los PCB’s de sus hijos el proceso init del sistema los libera –  void exit(int); pid_t waitpid(pid_t pid, int *status, int options); 1.22 Mutación de ejecutable: exec en UNIX  Al hacer fork, el espacio de direcciones es el mismo. Si queremos ejecutar otro código, el proceso debe MUTAR (Cambiar el binario de un proceso)  execlp: Un proceso cambia (muta) su propio ejecutable por otro ejecutable (pero el proceso es el mismo)  Todo el contenido del espacio de direcciones cambia, código, datos, pila, etc.
  Se mantiene todo lo relacionado con la identidad del proceso   Se reinicia el contador de programa a la primera instrucción (main) Contadores de uso internos , signals pendientes, etc Se modifican aspectos relacionados con el ejecutable o el espacio de direcciones  Se define por defecto la tabla de programación de signals int execlp(const char *file, const char *arg, ...); 1.23 EJEMPLOS GESTIÓN PROCESOS 1.24 Procesos: Ahora ya sabemos como se hace shell # gedit p1.c # gcc –o p1 p1.c # p1 pid=fork(); pid=fork(); pid=fork(); if (pid==0) execlp(“p1”,”p1”, (char *)null); if (pid==0) execlp(“gedit”,”gedit”,”p1.c”,(char *)null); if (pid==0) execlp(“gcc”,”gcc”,”-o”,”p1”,”p1.c”,”,(char *)null); waitpid(…); waitpid(…); waitpid(…); Llamadas a sistema Kernel 1.25 Crear PCB Inicializar PCB Reservar memoria Copiar código, datos…etc Asignar cpu ….
Liberar recursos Liberar PCB Creación procesos Caso 1: queremos que hagan líneas de código diferente 1.
2.
3.
4.
5.
6.
7.
8.
9.
int ret=fork(); if (ret==0) { // estas líneas solo las ejecuta el hijo, tenemos 2 procesos }else if (ret<0){ // En este caso ha fallado el fork, solo hay 1 proceso }else{ // estas líneas solo las ejecuta el padre, tenemos 2 procesos } // estas líneas las ejecutan los dos Caso 2: queremos que hagan lo mismo 1. fork(); 2. // Aquí, si no hay error, hay 2 procesos 1.26 Esquema Secuencial Secuencial: Forzamos que el padre espere a que termine un hijo antes de crear el siguiente.
1. #define num_procs 2 2. int i,ret; 3. for(i=0;i<num_procs;i++){ 4.
if ((ret=fork())<0) control_error(); 5.
if (ret==0) { 6.
// estas líneas solo las ejecuta el 7.
// hijo 8.
codigohijo(); 9.
exit(0); // 10. } 11. waitpid(-1,NULL,0); 12. } 1.27 Proceso inicial fork() waitpid() .
.
.
fork() waitpid() .
.
.
fork() waitpid() .
Hijo1 .
.
.
Hijo2 .
.
.
Hijo3 .
.
.
Esquema Concurrente Concurrente; Primero creamos todos los procesos, que se ejecutan concurrentemente, y después esperamos que acaben..
1. #define num_procs 2 2. int ret,i; 3. for(i=0;i<num_procs;i++){ 4.
if ((ret=fork())<0) control_error(); 5.
if (ret==0) { 6.
// estas líneas solo las ejecuta el 7.
// hijo 8.
codigohijo(); 9.
exit(0); // 10. } 11. } 12. while( waitpid(-1,NULL,0)>0); 1.28 Proceso inicial fork() fork() fork() waitpid() .
.
waitpid() waitpid() Hijo1 . Hijo2 . .
. . Hijo3 .
.
.
.
Ejemplo con fork  ¿Qué hará este código? 1.
2.
3.
4.
5.
int id; char buffer[128]; id=fork(); sprintf(buffer,”fork devuelve %d\n”,id); write(1,buffer,strlen(buffer));  ¿Qué hará si el fork funciona?  ¿Qué hará si el fork falla?  PROBADLO!! 1.29 Ejemplos con fork  ¿Cuántos procesos se crean en este fragmento de código? ...
fork(); fork(); fork();  ¿Y en este otro fragmento? ...
for (i = 0; i < 10; i++) fork();  ¿Qué árbol de procesos se genera? 1.30 Ejemplos con fork  Si el pid del proceso padre vale 10 y el del proceso hijo vale 11 int id1, id2, ret; char buffer[128]; id1 = getpid(); ret = fork(); id2 = getpid(); srintf(buffer,“Valor de id1: %d; valor de ret: %d; valor de id2: %d\n”, id1, ret, id2); write(1,buffer,strlen(buffer));  ¿Qué mensajes veremos en pantalla?  ¿Y ahora? int id1,ret; char buffer[128]; id1 = getpid(); /* getpid devuelve el pid del proceso que la ejecuta */ ret = fork(); id1 = getpid(); srintf(buffer,“Valor de id1: %d; valor de ret: %d”, id1, ret); write(1,buffer,strlen(buffer)); 1.31 Ejemplo: fork/exit (examen) void main() { char buffer[128]; ...
sprintf(buffer,“Mi PID es el %d\n”, getpid()); write(1,buffer,strlen(buffer)); for (i = 0; i < 3; i++) { ret = fork(); if (ret == 0) hacerTarea(); } while (1); } void hacerTarea() { char buffer[128]; sprintf(“Mi PID es %d y el de mi padre %d\n”, getpid(), getppid()); write(1,buffer,strlen(buffer)); exit(0); Ahora, probad a quitar esta instrucción, } es muy diferente!!! Podéis encontrar el código completo en: Nprocesos.c y NprocesosExit.c 1.32 Árbol de procesos (examen) Con exit Sin exit Padre Padre I=0 I=0 I=1 I=1 I=2 I=2 I=1 I=2 1.33 I=2 I=2 Otros ejemplos con fork  Escribid un programa que cree N procesos según el siguiente árbol de procesos: padre P1 P2 P3 PN  Modificad el código anterior para que los cree según este otro árbol de procesos: padre P1 P2 1.34 P3 PN Ejemplo fork+exec progA fork(); execlp(“/bin/progB”,”progB”,(char *)0); while(...) main(...){ int A[100],B[100]; ...
for(i=0;i<10;i++) A[i]=A[i]+B[i]; ...
progB P1 P2 main(...){ fork(); int A[100],B[100]; ...execlp(“/bin/progB”,.....
for(i=0;i<10;i++) while(...) A[i]=A[i]+B[i]; ...
main(...){ fork(); int A[100],B[100]; ...execlp(“/bin/progB”,.....
for(i=0;i<10;i++) while(...) A[i]=A[i]+B[i]; ...
1.35 Ejemplo fork+exec int pid; pid=fork(); if (pid==0) execlp(“/bin/progB”,”progB”,(char *)0); while(...) main(...){ int A[100],B[100]; ...
for(i=0;i<10;i++) A[i]=A[i]+B[i]; ...
progA progB P1 P2 int pid; pid=fork(); if (pid==0) execlp(........); while(...) main(...){ int pid; int A[100],B[100]; pid=fork(); ...
if (pid==0) execlp(.........); for(i=0;i<10;i++) A[i]=A[i]+B[i]; while(...) ...
1.36 Ejemplo: exec  Cuando en el shell ejecutamos el siguiente comando: % ls -l 1.
Se crea un nuevo proceso (fork) 2.
El nuevo proceso cambia la imagen, y ejecuta el programa ls (exec)  Como se implementa esto? ...
ret = fork(); if (ret == 0) { execlp(“/bin/ls”, “ls”, “-l”, (char *)NULL); } // A partir de aquí, este código sólo lo ejecutaría el padre ...
 ¿Hace falta poner un exit detrás del execlp?  ¿Qué pasa si el execlp falla? 1.37 Terminación de procesos. exit void main() {… ret=fork(); (1) if (ret==0) execlp(“a”,”a”,NULL); … waitpid(-1,&exit_code,0); (3) } A void main() {… exit(4); (2) } Se consulta del PCB kernel PCB (del proceso “A”) pid=… exit_code= … … Se guarda en el PCB Sin embargo, exit_code no vale 4!!! Hay que procesar el resultado 1.39 Ejemplo: fork/exec/waitpid // Usage: plauncher cmd [[cmd2] ... [cmdN]] void main(int argc, char *argv[]) { ...
num_cmd = argc-1; for (i = 0; i < num_cmd; i++) lanzaCmd( argv[i+1] ); // waitpid format // ret: pid del proceso que termina o -1 // arg1== -1 espera a un proceso hijo cualquiera // arg2 exit_codevariable donde el kernel nos copiara el valor de // finalización // argc3==0  BLOQUEANTE while ((pid = waitpid(-1, &exit_code, 0) > 0) trataExitCode(pid, exit_code); exit(0); } void lanzaCmd(char *cmd) { ...
ret = fork(); if (ret == 0) execlp(cmd, cmd, (char *)NULL); } void trataExitCode(int pid, int exit_code) //next slide ...
Examinad los ficheros completos: plauncher.c y Nplauncher.c 1.40 trataExitCode #include <sys/wait.h> // PROGRAMADLA para los LABORATORIOS void trataExitCode(int pid,int exit_code) { int pid,exit_code,statcode,signcode; char buffer[128]; if (WIFEXITED(exit_code)) { statcode = WEXITSTATUS(exit_code); sprintf(buffer,“El proceso %d termina con exit code %d\n”, pid, statcode); write(1,buffer,strlen(buffer)); } else { signcode = WTERMSIG(exit_code); sprintf(buffer,“El proceso %d termina por el signal %d\n”, pid, signcode); write(1,buffer,strlen(buffer)); } 1.41 -Linux:Signals COMUNICACIÓN ENTRE PROCESOS 1.42 Comunicación entre procesos  Los procesos pueden ser independientes o cooperar entre si  ¿Porqué puede ser útil que varios procesos cooperen?  Para compartir información  Para acelerar la computación que realizan  Por modularidad  Para poder cooperar, los procesos necesitan comunicarse  Interprocess communication (IPC) = Comunicación entre procesos  Para comunicar datos hay 2 modelos principalmente  Memoria compartida (Shared memory)   Los procesos utilizan variables que pueden leer/escribir Paso de mensajes (Message passing)  Los procesos utilizan funciones para enviar/recibir datos 1.43 Comunicación entre procesos en Linux  Signals – Eventos enviados por otros procesos (del mismo usuario) o por el kernel para indicar determinadas condiciones (Tema 2)  Pipes – Dispositivo que permite comunicar dos procesos que se ejecutan en la misma máquina. Los primeros datos que se envían son los primeros que se reciben. La idea principal es conectar la salida de un programa con la entrada de otro. Utilizado principalmente por la shel l(Tema 4)  FIFOS – Funciona con pipes que tienen un nombre el sistema de ficheros.
Se ofrecen como pipes con nombre. (Tema 4)  Sockets – Dispositivo que permite comunicar dos procesos a través de la red  Message queues – Sistema de comunicación indirecta  Semaphores - Contadores que permiten controlar el acceso a recursos compartidos. Se utilizan para prevenir el acceso de más de un proceso a un recurso compartido (por ejemplo memoria)  Shared memory – Memoria accesible por más de un proceso a la vez (Tema 3) 1.44 Signals: Envío y recepción IDEA: Un proceso puede recibir signals de otro proceso (del mismo usuario) o del kernel (para indicar que ha pasado algo concreto) Un proceso puede enviar signals a otro proceso (del mismo usuario) Proceso A Proceso B A envía signal a B Kernel envía signal a B kernel 1.45 Linux: Signals (3) Servicio Llamada sistema Capturar/reprogramar un signal concreto signal Enviar un signal concreto kill Esperar HASTA que llega un evento pause cualquiera (BLOQUEANTE) Programar el envío automático del signal SIGALRM (alarma) alarm  Servicios (Hemos seleccionado un conjunto mínimo)  Fichero con signals: /usr/include/bits/signum.h 1.46 Linux: Signals  Cada situación tiene un signal asociado  Ejemplos: SIGALRM, SIGSEGV,SIGINT,SIGKILL,SIGSTOP,…  El signal es un número, pero existen constantes definidas para usarlas en los programas o en línea de comandos  Están predefinidos por el kernel  Hay 2 no definidos para que el usuario lo use como quiera:SIGUSR1 y SIGUSR2  Usos que les daremos principalmente  Control del tiempo (alarmas)  Sincronizar procesos, los signals notificarán sucesos.
1.47 Básico: Enviar / Capturar (recibir)  Para enviar:  kill(pid_receptor, SIGNAL); –  SIGNAL SIGUSR1, SIGUSR2,etc Requerimiento: conocer el PID del proceso destino  Para capturar un SIGNAL y ejecutar una función cuando llegue:  signal(SIGNAL,nombre_funcion); – SIGNALSIGUSR1, SIGUSR2,etc – nombre_funcion: función de usuario con una cabecera predefinida: void nombre_funcion(int s); – IMPORTANTE: la función la invoca el kernel. El parámetro s corresponde con el SIGNAL recibido (SIGUSR1, SIGUSR2, etc) 1.48 Básico:Un proceso A envía un signal a B  El proceso A envía (en algún momento) un signal a B y B ejecuta una acción al recibirlo Proceso B void funcion(int s) { … } int main() { signal(evento, función); ….
} Proceso A …..
Kill( pid, evento); ….
Es similar a una interrupción: B estará ejecutando su código, cuando reciba el evento, se ejecutará la función y luego (si no termina) continuará donde estaba 1.49 Básico: Esperar un evento/Programar temporizado  Esperar (bloqueado) que llegue un evento  pause()  No tiene parámetros, esperamos uno cualquiera  Bloquea HASTA que llega un evento  Programar un envió automático (lo envía el kernel) de signal SIGALRM  int alarm(num_secs); ret=rem_time; si (num_secs==0) { enviar_SIGALRM=OFF }else{ enviar_SIGALRM=ON rem_time=num_secs, } return ret; 1.50 Básicos:Un proceso A envía un signal a B  El proceso A envía (en algún momento) un signal a B, B está esperando un evento y ejecuta una acción al recibirlo Proceso A …..
Kill( pid, evento); ….
B estará bloqueado en el pause(), cuando reciba el evento, se ejecutará la función y luego (si no termina) continuará donde estaba Proceso B void funcion(int s) { … } int main() { signal(evento, función); ….
pause(); ….
} ¿Que pasa si A envía el evento antes de que B llegue al pause()? ¿Qué pasa si A envía el evento después de que B llegue al pause()? 1.51 Signals: Envío y recepción Que sucede realmente?, el kernel ofrece el servicio de pasar la información.
Proceso A Proceso B “A envía signal a B”= llamada a sistema Kill(PID_B,signal) kernel PCB proceso B Kernel ejecuta código Asociado a signal •Código por defecto •Código indicado por el proceso Gestión signals 1.52 Signals: estructuras de datos del kernel  La gestión de signals es por proceso, la información de gestión está en el PCB  Cada proceso tiene una tabla de programación de signals (1 entrada por signal),   1 bitmap de eventos pendientes (1 bit por signal)   No es un contador, actúa como un booleano 1 único temporizador para la alarma   Se indica que acción realizar cuando se reciba el evento Si programamos 2 veces la alarma solo queda la última Una máscara de bits para indicar que signals hay que tratar 1.53 Avanzado: Acciones posibles al recibir un signal Ignorarlo IGNORARLO signal(SIG,SIG_IGN) Terminar ACCIÓN ACCIÓN POR DEFECTO signal(SIG,SIG_DFL) (predefinido según el signal) Terminar+Core FUNCIÓN USUARIO signal(SIG, nom_funcion) Stop process Donde SIG debe ser el nombre de un signal: SIGUSR1, SIGALRM, SIGUSR2, etc 1.55 Ejemplo: Programación básica de signal void main() { char buffer[128]; ...
signal(SIGALRM, f_alarma); // Cuando llegue SIGALRM se ejecutará // f_alarma alarm(1); // Pedimos al kernel que nos envíe un SIGALRM al cabo de 1 // seg while(1) { sprintf(buffer,“Estoy haciendo cierta tarea\n”); write(1,buffer,strlen(buffer)); } } void f_alarma(int s) { char buffer[128]; sprintf(buffer,“TIEMPO!\n”); write(1,buffer,strlen(buffer)); alarm(1); // si se quiere un signal cada segundo // hay que reprogramarlo } Podéis encontrar el código completo en: signal_basico.c 1.56 Linux: Signals (4)  Algunos signals Nombre Acción Defecto Evento SIGCHLD IGNORAR Un proceso hijo ha terminado o ha sido parado SIGCONT Continua si estaba parado SIGSTOP STOP Parar proceso SIGTERM TERMINAR Interrumpido desde el teclado (CtrC) SIGALRM TERMINAR El contador definido por la llamada alarm ha terminado SIGKILL TERMINAR Terminar el proceso SIGSEGV CORE Referencia inválida a memória SIGUSR1 TERMINAR Definido por el usuario (proceso) SIGUSR2 TERMINAR Definido por el usuario (proceso) 1.57 Linux: Relación con fork y exec  FORK: Proceso nuevo  El hijo hereda la tabla de acciones asociadas a los signals del proceso padre  Los eventos son enviados a procesos concretos (PID’s), el hijo es un proceso nuevo  La lista de eventos pendientes se borra (tampoco se heredan los temporizadores pendientes)  EXECLP: Mismo proceso, cambio de ejecutable  La tabla de acciones asociadas a signals se pone por defecto ya que el código es diferente  Los eventos son enviados a procesos concretos (PID’s), el proceso no cambia La lista de eventos pendientes se conserva 1.58 Esperar signals para sincronización de procesos  Alternativas para “esperar” la recepción de un evento 1. Espera activa: El proceso consume cpu para comprobar si ha llegado o no el evento. Normalmente comprobando el valor de una variable – Ejemplo: while(!recibido); – Desventaja: es ineficiente 2. Bloqueo: El proceso libera la cpu (se bloquea) y será el kernel quien le despierte a la recepción de un evento – Ventaja: No consume cpu – Desventaja: depende del código podría no funcionar » Ejemplo: pause();  Podemos usar pause()  Cuando haya sólo un tipo de signal  Cuando podamos asegurar que el proceso no se quedará bloqueado indefinidamente. Hemos de asegurar que el evento llegará DESPUÉS de ejecutar el pause.
1.59 Ejemplo: reprogramación de signals (1) void main() { ...
signal(SIGALRM, f_alarma); for(i = 0; i < 10; i++) { alarm(2); pause(); // Válido en algunos casos , no consume cpu crea_ps(); } } void f_alarma() { } void crea_ps() { pid = fork(); if (pid == 0) execlp(“ps”, “ps”, (char *)NULL); } Podéis encontrar el código completo en: cada_segundo.c 1.60 Ejemplo: reprogramación de signals (2) void main() { ...
signal(SIGALRM, f_alarma); signal(SIGCHLD, fin_hijo); for (i = 0; i < 10; i++) { alarm(2); esperar_alarma(); // ¿Qué opciones tenemos? alarma = 0; crea_ps(); void crea_ps() } { } pid = fork(); if (pid == 0) execlp(“ps”, “ps, void f_alarma() (char *)NULL); { } alarma = 1; } void fin_hijo() { while(waitpid(-1,NULL,WNOHANG) > 0); } Podéis encontrar el código completo en: cada_segundo_sigchld.c 1.61 -Datos -Estructuras de gestión -Políticas de planificación -Mecanismos GESTIÓN INTERNA DE PROCESOS 1.62 Gestión interna  Para gestionar los procesos necesitamos:  Estructuras de datos, para representar sus propiedades  PCB  Estructuras de gestión, que organicen los PCB’s en función de su estado o de necesidades de organización del sistema  Generalmente son listas o colas, pero pueden incluir estructuras más complejas como tablas de hash, árboles, etc.
 Hay que tener en cuenta la eficiencia – ¿Son rápidas las inserciones/eliminaciones? – ¿Son rápidas las búsquedas? – ¿Cuál/cuales serán los índices de búsqueda? ¿PID? ¿Usuario?  Hay que tener en cuenta la escalabilidad – ¿Cuántos procesos podemos tener activos en el sistema? – ¿Cuánta memoria necesitamos para las estructuras de gestión?  Algoritmo/s de planificación, que nos indique como gestionar estas estructuras  Mecanismos que apliquen las decisiones tomadas por el planificador 1.63 Datos: Process Control Block (PCB)  Es la información asociada con cada proceso, depende del sistema, pero normalmente incluye, por cada proceso, aspectos como:  El identificador del proceso (PID)  Las credenciales: usuario, grupo  El estado : RUN, READY,…  Espacio para salvar los registros de la CPU  Datos para gestionar signals  Información sobre la planificación  Información de gestión de la memoria  Información sobre la gestión de la E/S  Información sobre los recursos consumidos (Accounting ) http://lxr.linux.no/#linux-old+v2.4.31/include/linux/sched.h#L283 1.64 Estructuras para organizar los procesos: Colas/listas de planificación El SO organiza los PCB’s de los procesos en estructuras de gestión: vectores, listas, colas. Tablas de hash, árboles, en función de sus necesidades  Los procesos en un mismo estado suelen organizarse en colas o listas que permiten mantener un orden   Por ejemplo:  Cola de procesos – Incluye todos los procesos creados en el sistema    Cola de procesos listos para ejecutarse (ready) – Conjunto de procesos que están listos para ejecutarse y están esperando una CPU  En muchos sistemas, esto no es 1 cola sino varias ya que los procesos pueden estar agrupados por clases, por prioridades, etc Colas de dispositivos– Conjunto de procesos que están esperando datos del algún dispositivo de E/S El sistema mueve los procesos de una cola a otra según corresponda  Ej. Cuando termina una operación de E/S , el proceso se mueve de la cola del dispositivo a la cola de ready.
1.65 Planificación  El algoritmo que decide cuando un proceso debe dejar la CPU, quien entra y durante cuanto tiempo, es lo que se conoce como Política de planificación (o scheduler)  La planificación se ejecuta muchas veces (cada 10 ms, por ejemplo)  debe ser muy rápida  El criterio que decide cuando se evalúa si hay que cambiar el proceso que está en la cpu (o no), que proceso ponemos, etc, se conoce como Política de planificación:  Periódicamente (10 ms.) en la interrupción de reloj, para asegurar que 1.66 Planificación  Hay determinadas situaciones que provocan que se deba ejecutar la planificación del sistema  Casos en los que el proceso que está RUN no puede continuar la ejecución Hay que elegir otro  Eventos no preemptivos  Ejemplo: El proceso termina, El proceso se bloquea  Casos en los que el proceso que está RUN podría continuar ejecutándose pero por criterios del sistema se decide pasarlo a estado READY y poner otro en estado RUN La planificación elige otro pero es forzado  evento preemptivo  Estas situaciones dependen de la política, cada política considera algunos si y otros no)  Ejemplos: El proceso lleva X ms ejecutándose (RoundRobin), Creamos un proceso nuevo, se desbloquea un proceso,….
1.67 Planificador  Las políticas de planificación son preemptivas (apropiativas) o no preemptivas (no apropiativas)  No preemptiva: La política no le quita la cpu al proceso, él la “libera”.
Sólo soporta eventos no preemptivos. (eventos tipo 1 y 2)  Preemptiva: La política le quita la cpu al proceso. Soporta eventos preemptivos (eventos tipo 3) y no preemptivos.
 Si el SO aplica una política preemptiva el SO es premptivo 1.68 Caracterización de procesos  Los procesos suelen presentar ráfagas de computación y ráfagas de acceso a dispositivos (E/S) que pueden bloquear al proceso  En función de estas ráfagas, los procesos se consideran:  Procesos de cálculo: Consumen más tiempo haciendo cálculo que E/S  Procesos de E/S: Consumen más tiempo haciendo entrada/salida de datos que cálculo 1.69 Mecanismos utilizados por el planificador  Cuando un proceso deja la CPU y se pone otro proceso se ejecuta un cambio de contexto (de un contexto a otro)  Cambios de contexto(Context Switch)  El sistema tiene que salvar el estado del proceso que deja la cpu y restaurar el estado del proceso que pasa a ejecutarse   El contexto del proceso se suele salvar en los datos de kernel que representan el proceso (PCB). Hay espacio para guardar esta información El cambio de contexto no es tiempo útil de la aplicación, así que ha de ser rápido. A veces el hardware ofrece soporte para hacerlo más rápido  Por ejemplo para salvar todos los registros o restaurarlos de golpe 1.70 Mecanismo cambio contexto Modo usuario T I E M P O Modo kernel Modo usuario Modo kernel Modo usuario Ejecutando código usuario Proceso A int reloj Salvar contexto proceso A en PCB[A] Planificador decide cambiar a proceso B Restaurar contexto proceso B de PCB[B] Ejecutando código usuario Proceso B Salvar contexto proceso B en PCB[B] Planificador decide cambiar a proceso A Restaurar contexto proceso A de PCB[A] Ejecutando código usuario Proceso A CPU 1.71 int reloj Objetivos/Métricas de la planificación  Las políticas de planificación pueden tener objetivos diferentes según el sistema para el cual estén diseñados, el tipo de usuarios que vayan a usarlos, el tipo de aplicación, etc. Sin embargo, estos son los criterios que suelen considerar (pueden haber otros) que determinan el comportamiento de una política   Tiempo total de ejecución de un proceso (Turnaround time )- Tiempo total desde que el proceso llega al sistema hasta que termina  Incluye el tiempo que está en todos los estados  Depende del propio proceso y de la cantidad de procesos que haya en la máquina Tiempo de espera de un proceso- Tiempo que el proceso pasa en estado ready 1.72 Round Robin (RR)  El sistema tiene organizados los procesos en función de su estado  Los procesos están encolados por orden de llegada  Cada proceso recibe la CPU durante un periodo de tiempo (time quantum), típicamente 10 ó 100 miliseg.
 El planificador utiliza la interrupción de reloj para asegurarse que ningún proceso monopoliza la CPU 1.73 Round Robin (RR)  Eventos que activan la política Round Robin: 1.
Cuando el proceso se bloquea (no preemptivo) 2.
Cuando termina el proceso (no preemptivo) 3.
Cuando termina el quantum (preemptivo)  Es una política apropiativa o preemptiva  Cuando se produce uno de estos eventos, el proceso que está run deja la la cpu y se selecciona el siguiente de la cola de ready.
 Si el evento es 1, el proceso se añade a la cola de bloqueados hasta que termina el acceso al dispositivo  Si el evento es el 2, el proceso pasaría a zombie en el caso de linux o simplemente terminaría  Si el evento es el 3, el proceso se añade al final de la cola de ready 1.74 Round Robin (RR)  Rendimiento de la política  Si hay N procesos en la cola de ready, y el quantum es de Q milisegundos, cada proceso recibe 1/n partes del tiempo de CPU en bloques de Q milisegundos como máximo.
  Ningún proceso espera más de (N-1)Q milisegundos.
La política se comporta diferente en función del quantum   q muy grande se comporta como en orden secuencial.
Los procesos recibirían la CPU hasta que se bloquearan q pequeño  q tiene que ser grande comparado con el coste del cambio de contexto. De otra forma hay demasiado overhead.
1.75 RELACIÓN ENTRE LAS LLAMADAS A SISTEMA DE GESTIÓN DE PROCESOS Y LA GESTIÓN INTERNA DEL S.O. (DATOS,ALGORITMOS, ETC).
1.76 ¿Qué hace el kernel cuando se ejecuta un…?  fork  Se busca un PCB libre y se reserva Se inicializan los datos nuevos (PID, etc)  Se aplica la política de gestión de memoria (Tema 3)  P.ej.: reservar memoria y copiar contenido del espacio de direcciones del padre al hijo  Se actualizan las estructuras de gestión de E/S (Tema 4 y 5)  En el caso de Round Robin: Se añade el proceso a la cola de ready  exec  Se substituye el espacio de direcciones por el código/datos/pila del nuevo ejecutable  Se inicializan los datos del PCB correspondientes : tabla de signals, contexto, etc  Se actualizan el contexto actual del proceso: variables de entorno, argv, registros, etc  1.77 ¿Qué hace el kernel cuando se ejecuta un…?  exit Se liberan todos los recursos del proceso: memoria, dispositivos “en uso”, etc  En Linux: se guarda el estado de finalización en el PCB y se elimina de la cola de ready (de forma que no podrá ejecutar más)  Se aplica la política de planificación   waitpid Se busca el proceso en la lista de PCB’s para conseguir su estado de finalización  Si el proceso que buscamos estaba zombie, el PCB se libera y se devuelve el estado de finalización a su padre.
 Si no estaba zombie, el proceso padre se elimina pasa de estado run a bloqued hasta que el proceso hijo termine.
 Se aplicaría la política de planificación  1.78 PROTECCIÓN Y SEGURIDAD 1.79 Protección y Seguridad  La protección se considera un problema Interno al sistema y la Seguridad se refiere principalmente a ataques externos 1.80 Protección UNIX  Los usuarios se identifican mediante username y password (userID)  Los usuarios pertenecen a grupos (groupID)  Para ficheros  Protección asociada a: Lectura/Escritura/Ejecución (rwx) – Comando ls para consultar, chmod para modificar  Se asocian a los niveles de: Propietario, Grupo, Resto de usuarios A nivel proceso: Los procesos tienen un usuario que determina los derechos  La excepción es ROOT. Puede acceder a cualquier objeto y puede ejecutar operaciones privilegiadas  También se ofrece un mecanismo para que un usuario pueda ejecutar un programa con los privilegios de otro usuario (mecanismo de setuid)  Permite, por ejemplo, que un usuario pueda modificarse su password aun cuando el fichero pertenece a root.
 1.81 Seguridad   La seguridad ha de considerarse a cuatro niveles: Físico   Las máquinas y los terminales de acceso deben encontrarse en un habitaciones/edificios seguros.
Humano   Es importante controlar a quien se concede el acceso a los sistemas y concienciar a los usuarios de no facilitar que otras personas puedan acceder a sus cuentas de usuario Sistema Operativo   Evitar que un proceso(s) sature el sistema Asegurar que determinados servicios están siempre funcionando  Asegurar que determinados puertos de acceso no están operativos  Controlar que los procesos no puedan acceder fuera de su propio espacio de direcciones  Red  La mayoría de datos hoy en día se mueven por la red. Este componente de los sistemas es normalmente el más atacado.
1.82 ...