当前位置:   article > 正文

从入门到精通:Linux多线程_linux多线程服务器编程

linux多线程服务器编程
前言

多线程编程是现代计算机科学中至关重要的技术,它能够显著提升程序的并行性和性能。特别是在Linux环境中,多线程编程变得尤为重要,因为Linux提供了丰富的多线程支持。在这篇文章中,我们将深入探讨Linux多线程编程,从基本概念到高级技巧,帮助你从入门到精通。


1. 线程的概念

什么是线程

线程(Thread)是一个程序内部的独立执行路径,通常被定义为“一个进程内部的控制序列”。在Linux系统中,线程与进程的关系紧密但有所不同。一个进程至少有一个线程,而线程在进程的地址空间内运行,共享进程的大部分资源。

线程的优点

  1. 创建线程的代价比创建进程小:因为线程在同一进程内共享资源,创建线程的开销远小于创建进程。进程的创建需要分配独立的资源,如内存空间、文件描述符等,而线程只需分配少量的资源,如堆栈和寄存器。
  2. 线程切换比进程切换所需的操作系统工作量少:线程切换时不需要切换进程的内存地址空间,只需切换少量的寄存器和栈指针,这使得线程切换的开销更低。
  3. 线程占用的资源比进程少:由于线程共享进程的资源,多个线程可以有效地利用进程的资源,减少了资源的浪费。
  4. 多线程可以充分利用多处理器系统,提高并行性:在多处理器系统中,多个线程可以同时运行在不同的处理器上,从而提高程序的执行效率。
  5. 在等待慢速I/O操作时,其他线程可以继续执行其他任务:多线程编程允许在一个线程等待I/O操作时,其他线程继续执行计算任务,提高了程序的响应速度和资源利用率。
  6. 对于计算密集型和I/O密集型应用,多线程可以显著提高性能:在计算密集型应用中,多个线程可以并行处理不同的计算任务;在I/O密集型应用中,线程可以同时等待不同的I/O操作,提高了程序的吞吐量。

线程的缺点

  1. 性能损失:过多的计算密集型线程在多处理器系统中可能导致性能下降。如果计算密集型线程的数量超过可用的处理器数量,操作系统的调度开销和同步开销会显著增加,导致性能下降。
  2. 健壮性降低:编写多线程程序需要更全面的考虑,容易出现因时间分配和变量共享带来的问题。例如,线程之间的竞争条件、死锁和优先级反转问题,都会降低程序的健壮性。
  3. 缺乏访问控制:线程在进程内共享资源,某些操作可能影响整个进程。例如,一个线程调用了影响全局状态的操作(如改变文件描述符表),会影响同一进程内的其他线程。
  4. 编程难度提高:多线程程序比单线程程序更难编写和调试。需要处理线程同步、线程间通信、死锁检测和避免等复杂问题。
  5. 线程异常:线程出错会导致整个进程崩溃。例如,如果一个线程出现除零或野指针问题,会触发信号机制,终止整个进程,导致进程内的所有线程退出。

线程的用途
合理使用多线程可以提高CPU密集型程序的执行效率,并提高I/O密集型程序的用户体验。例如,生活中我们一边写代码一边下载开发工具,就是多线程运行的一种表现。通过多线程,程序可以同时执行多个任务,提高了资源利用率和执行效率。在服务器编程中,多线程广泛用于处理并发请求,如Web服务器、数据库服务器等。在科学计算中,多线程被用于并行处理大量计算任务,提高计算效率。在图形界面编程中,多线程被用于处理用户交互和后台任务,提高用户体验。


2. 进程和线程

进程和线程的区别

进程和线程是操作系统中两个重要的概念,它们在资源管理和调度上有着不同的角色和特点。

**进程(Process)**是资源分配的基本单位。每个进程都有自己独立的内存空间、文件描述符、信号处理方式等系统资源。当一个进程创建时,操作系统为其分配独立的地址空间,进程间的通信需要通过进程间通信机制(IPC)实现,如管道、信号、共享内存等。由于进程间资源独立,进程间的切换开销较大,因为需要保存和恢复各自的上下文信息。

**线程(Thread)**是调度的基本单位。一个进程可以包含多个线程,这些线程共享进程的资源,如代码段、数据段、文件描述符等。线程之间的切换开销较小,因为它们共享同一进程的资源,只需要切换少量的寄存器和栈指针。线程之间的通信更加高效,因为它们可以直接访问共享的数据。

在Linux系统中,线程与进程的关系如下图所示:

进程
  ├── 线程1(主线程)
  ├── 线程2
  ├── 线程3
  └── ...
  • 1
  • 2
  • 3
  • 4
  • 5

进程和线程的区别和联系

  1. 资源分配:进程是资源分配的基本单位,线程共享进程的资源。
  2. 调度:线程是调度的基本单位,操作系统调度时以线程为单位。
  3. 内存空间:进程有独立的地址空间,线程共享进程的地址空间。
  4. 通信方式:进程间通信需要IPC机制,线程间可以直接通过共享内存通信。
  5. 创建和切换开销:创建和切换进程的开销大于线程。

进程的多个线程共享的资源

  1. 文件描述符表:进程内所有线程共享同一个文件描述符表,可以同时访问和操作同一个文件。
  2. 信号处理方式:每种信号的处理方式(如忽略信号、默认处理、自定义处理函数)在进程内所有线程之间共享。
  3. 当前工作目录:进程的当前工作目录对于所有线程是相同的。
  4. 用户ID和组ID:进程的用户ID和组ID在所有线程之间共享。

关于单进程和多线程的问题
单进程意味着只有一个线程执行流,程序的所有任务都由这一个线程依次完成。这种模型的优点是编程简单,不需要考虑线程同步和并发问题;但缺点是程序的并发性差,不能充分利用多处理器系统的优势。在现代计算环境中,单进程模型的性能往往不够理想。

多线程模型通过创建多个线程,使得程序能够同时执行多个任务,提高了程序的并行性和响应速度。多线程编程需要解决线程同步、竞争条件、死锁等问题,但它可以显著提高程序的性能和资源利用率。例如,一个Web服务器可以使用多线程来处理并发的客户端请求,每个请求由一个独立的线程处理,这样可以提高服务器的吞吐量和响应速度。

总之,进程和线程在操作系统中扮演着不同的角色,各有优缺点。理解它们的区别和联系,对于编写高性能、可靠的并发程序至关重要。


3. 线程控制

POSIX线程库

POSIX线程库(Pthreads)是一个广泛使用的多线程编程接口,提供了一整套与线程相关的函数,几乎所有函数的名字都以“pthread_”打头。使用Pthreads编程时,需要引入头文件<pthread.h>,并在编译时使用“-lpthread”选项来链接这些线程函数库。

POSIX线程库的主要功能包括线程的创建、同步、终止和等待等。通过Pthreads,我们可以方便地实现多线程程序,提高程序的并行性和性能。

创建线程

创建线程是多线程编程的基本操作。POSIX线程库提供了pthread_create函数来创建新线程。

函数原型

int pthread_create(pthread_t *thread, const pthread_attr_t *attr, void *(*start_routine)(void*), void *arg);
  • 1

参数

  • thread:返回线程ID
  • attr:设置线程的属性,attr为NULL表示使用默认属性
  • start_routine:线程启动后要执行的函数
  • arg:传给线程启动函数的参数

返回值:成功返回0;失败返回错误码。

示例代码

#include <

stdio.h>
#include <pthread.h>
#include <unistd.h>

void *thread_func(void *arg) {
    printf("I am a thread\n");
    sleep(1);
    return NULL;
}

int main() {
    pthread_t thread;
    pthread_create(&thread, NULL, thread_func, NULL);
    pthread_join(thread, NULL);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18

在上面的示例中,我们定义了一个线程函数thread_func,该函数简单地打印一条消息,然后休眠1秒。通过调用pthread_create函数创建新线程,并传入thread_func作为线程的启动函数。主线程通过pthread_join函数等待新线程执行完毕后再继续执行。

线程ID及进程地址空间布局

在创建新线程时,pthread_create函数会产生一个线程ID,并将其存放在第一个参数指向的地址中。线程ID是操作系统调度线程的标识符。在Linux系统中,线程ID是进程地址空间上的一个地址。

POSIX线程库提供了pthread_self函数,可以获得当前线程的ID:

pthread_t pthread_self(void);
  • 1

示例代码

#include <stdio.h>
#include <pthread.h>

void *thread_func(void *arg) {
    pthread_t tid = pthread_self();
    printf("Thread ID: %lu\n", (unsigned long)tid);
    return NULL;
}

int main() {
    pthread_t thread;
    pthread_create(&thread, NULL, thread_func, NULL);
    pthread_join(thread, NULL);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

在上面的示例中,我们通过pthread_self函数获取当前线程的ID,并将其打印出来。

线程终止

线程终止是多线程编程中需要处理的重要问题。POSIX线程库提供了多种方法来终止线程:

  1. 从线程函数return:这种方法适用于普通线程,但不适用于主线程。主线程从main函数return相当于调用exit,会终止整个进程。
  2. 线程调用pthread_exit终止自己:
    void pthread_exit(void *value_ptr);
    
    • 1
    参数value_ptr是线程的返回值,不要指向一个局部变量。
  3. 一个线程调用pthread_cancel终止同一进程中的另一个线程:
    int pthread_cancel(pthread_t thread);
    
    • 1
    返回值:成功返回0;失败返回错误码。

示例代码

#include <stdio.h>
#include <pthread.h>
#include <unistd.h>

void *thread_func(void *arg) {
    printf("Thread exiting\n");
    pthread_exit(NULL);
}

int main() {
    pthread_t thread;
    pthread_create(&thread, NULL, thread_func, NULL);
    pthread_join(thread, NULL);
    printf("Main thread exiting\n");
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

在上面的示例中,线程通过调用pthread_exit函数终止自己,主线程通过pthread_join函数等待子线程终止后继续执行。


4. 分离线程

默认情况下,新创建的线程是joinable的,线程退出后需要对其进行pthread_join操作,否则无法释放资源,造成系统资源泄漏。如果不关心线程的返回值,可以将线程设置为分离状态,这样线程退出后会自动释放资源。

设置线程为分离状态可以通过pthread_detach函数实现:

int pthread_detach(pthread_t thread);
  • 1

分离线程的主要作用是避免资源泄漏,特别是在创建大量短时间存活的线程时,分离线程可以显著减少系统资源的消耗。

示例代码

#include <stdio.h>
#include <pthread.h>
#include <unistd.h>

void *thread_func(void *arg) {
    pthread_detach(pthread_self());
    printf("Thread is running\n");
    sleep(2);
    printf("Thread exiting\n");
    return NULL;
}

int main() {
    pthread_t thread;
    pthread_create(&thread, NULL, thread_func, NULL);
    pthread_exit(NULL);
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

在上面的示例中,我们在子线程中调用pthread_detach函数将线程设置为分离状态,这样当线程函数执行完毕后,系统会自动回收线程资源,而不需要主线程通过pthread_join等待线程结束。

分离线程的注意事项

  1. 一旦线程被分离,就不能再通过pthread_join等待它结束,也无法获取它的返回值。
  2. 分离线程适用于不需要获取返回值的短时间任务,如后台日志记录、定时任务等。
  3. 避免在分离线程中使用局部变量作为返回值,因为在线程结束时局部变量会被销毁,可能导致未定义行为。

分离线程在实际应用中非常常见,特别是在服务器编程中,如Web服务器、数据库服务器等,往往需要处理大量并发请求。通过将线程设置为分离状态,可以有效地减少资源占用,提高服务器的响应速度和稳定性。


5. 线程互斥

互斥量(Mutex)

在多线程编程中,多个线程可能会访问共享的资源,这些共享资源称为临界资源。为了保证数据的一致性和正确性,必须对临界资源进行保护,确保同一时间只有一个线程能够访问。这种保护机制称为互斥(Mutual Exclusion)。

互斥量(Mutex)是实现互斥的重要工具。通过互斥量,多个线程可以互相排斥地访问共享资源,从而避免竞争条件和数据不一致的问题。

互斥量的基本操作

  1. 初始化互斥量

    pthread_mutex_t mutex = PTHREAD_MUTEX_INITIALIZER;
    int pthread_mutex_init(pthread_mutex_t *restrict mutex, const pthread_mutexattr_t *restrict attr);
    
    • 1
    • 2

    互斥量可以通过静态初始化和动态初始化两种方式进行初始化。

  2. 销毁互斥量

    int pthread_mutex_destroy(pthread_mutex_t *mutex);
    
    • 1

    在程序结束时,需要销毁互斥量,释放相关资源。

  3. 加锁和解锁

    int pthread_mutex_lock(pthread_mutex_t *mutex);
    int pthread_mutex_unlock(pthread_mutex_t *mutex);
    
    • 1
    • 2

    当一个线程需要访问临界资源时,首先要对互斥量加锁,确保只有自己能够访问该资源;访问完成后,再解锁,允许其他线程访问。

示例代码

#include <stdio.h>
#include <pthread.h>

int counter = 0;
pthread_mutex_t mutex;

void *increment(void *arg) {
    for (int i = 0; i < 10000; ++i) {
        pthread_mutex_lock(&mutex);
        counter++;
        pthread_mutex_unlock(&mutex);
    }
    return NULL;
}

int main() {
    pthread_t thread1, thread2;
    pthread_mutex_init(&mutex, NULL);
    pthread_create(&thread1, NULL, increment, NULL);
    pthread_create(&thread2, NULL, increment, NULL);
    pthread_join(thread1, NULL);
    pthread_join(thread2, NULL);
    pthread_mutex_destroy(&mutex);
    printf("Counter: %d\n", counter);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26

在上面的示例中,我们通过互斥量mutex来保护共享变量counter,确保同一时间只有一个线程能够修改counter。两个线程分别对counter进行10000次加1操作,最终输出结果应为20000。

互斥量实现原理
互斥量的实现依赖于底层硬件的支持,通过原子操作来实现加锁和解锁。常见的原子操作有Test-and-Set、Compare-and-Swap等。互斥量在加锁时会检查当前状态,如果已被其他线程锁定,则当前线程会进入等待状态,直到互斥量被解锁为止。解锁操作将互斥量的状态设置为未锁定,允许其他线程获取锁。

互斥量的高级用法

  1. 递归互斥量:允许同一个线程多次加锁和解锁,避免死锁问题。可以通过设置互斥量属性实现递归互斥量:
    pthread_mutexattr_t attr;
    pthread_mutexattr_init(&attr);
    pthread_mutexattr_settype(&attr, PTHREAD_MUTEX_RECURSIVE);
    pthread_mutex_init(&mutex, &attr);
    pthread_mutexattr_destroy(&attr);
    
    • 1
    • 2
    • 3
    • 4
    • 5
  2. 尝试加锁:通过pthread_mutex_trylock函数尝试加锁,如果互斥量已被锁定,则立即返回而不进入等待状态:
    int pthread_mutex_trylock(pthread_mutex_t *mutex);
    
    • 1

互斥量是多线程编程中最常用的同步机制之一,通过合理使用互斥量,可以有效避免竞争条件,提高程序的正确性和稳定性。在实际应用中,互斥量常用于保护共享数据结构,如队列、链表、全局变量等,确保多线程环境下的数据一致性。


6

. 线程同步

条件变量

条件变量是一种高级的线程同步机制,用于在线程间同步某个条件的变化。当一个线程互斥地访问某个变量时,它可能发现在其它线程改变状态之前,什么也做不了。这时,线程可以进入等待状态,直到条件满足。

条件变量允许线程在某个条件不满足时释放互斥量并进入等待状态,直到条件满足时被唤醒。通过条件变量,线程可以高效地等待某个条件的变化,而不需要不断地轮询检查条件,从而提高了程序的性能和响应速度。

条件变量的基本操作

  1. 初始化条件变量

    int pthread_cond_init(pthread_cond_t *restrict cond, const pthread_condattr_t *restrict attr);
    
    • 1

    通过静态初始化或动态初始化两种方式进行初始化。

  2. 销毁条件变量

    int pthread_cond_destroy(pthread_cond_t *cond);
    
    • 1

    在程序结束时,需要销毁条件变量,释放相关资源。

  3. 等待条件满足

    int pthread_cond_wait(pthread_cond_t *restrict cond, pthread_mutex_t *restrict mutex);
    
    • 1

    当条件不满足时,线程调用pthread_cond_wait函数进入等待状态,并释放互斥量。该函数会自动重新加锁和解锁互斥量,确保等待操作的原子性。

  4. 唤醒等待线程

    int pthread_cond_signal(pthread_cond_t *cond);
    int pthread_cond_broadcast(pthread_cond_t *cond);
    
    • 1
    • 2

    当条件满足时,线程调用pthread_cond_signalpthread_cond_broadcast函数唤醒一个或多个等待线程。

示例代码

#include <stdio.h>
#include <pthread.h>

pthread_cond_t cond;
pthread_mutex_t mutex;
int ready = 0;

void *waiter(void *arg) {
    pthread_mutex_lock(&mutex);
    while (!ready) {
        pthread_cond_wait(&cond, &mutex);
    }
    printf("Thread activated\n");
    pthread_mutex_unlock(&mutex);
    return NULL;
}

void *signaler(void *arg) {
    sleep(1);
    pthread_mutex_lock(&mutex);
    ready = 1;
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mutex);
    return NULL;
}

int main() {
    pthread_t thread1, thread2;
    pthread_cond_init(&cond, NULL);
    pthread_mutex_init(&mutex, NULL);
    pthread_create(&thread1, NULL, waiter, NULL);
    pthread_create(&thread2, NULL, signaler, NULL);
    pthread_join(thread1, NULL);
    pthread_join(thread2, NULL);
    pthread_mutex_destroy(&mutex);
    pthread_cond_destroy(&cond);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38

在上面的示例中,waiter线程等待条件变量cond满足后才会继续执行,signaler线程在等待1秒后修改条件变量并唤醒waiter线程。

条件变量的使用场景

  1. 生产者消费者模型:在生产者消费者模型中,生产者线程在生产数据后,使用条件变量通知消费者线程进行消费。消费者线程在数据为空时,使用条件变量等待生产者线程的通知。
  2. 任务调度:在任务调度系统中,调度线程可以使用条件变量等待任务的到来,工作线程在有任务时使用条件变量通知调度线程。
  3. 资源管理:在资源管理系统中,资源不足时,线程可以使用条件变量等待资源的释放,当资源可用时,其他线程使用条件变量通知等待的线程。

条件变量的注意事项

  1. 条件变量必须与互斥量配合使用:条件变量的等待和唤醒操作必须在持有互斥量的情况下进行,以确保条件检查和等待操作的原子性。
  2. 避免虚假唤醒:条件变量的等待操作应放在循环中进行,以避免虚假唤醒导致的错误。在等待线程被唤醒后,需要重新检查条件是否满足。
  3. 唤醒所有等待线程:在某些场景下,使用pthread_cond_broadcast函数唤醒所有等待线程可能比pthread_cond_signal函数唤醒一个线程更合适,特别是在多个线程竞争同一个资源时。

条件变量是多线程编程中非常重要的同步机制,通过合理使用条件变量,可以实现高效的线程间同步,提高程序的性能和响应速度。在实际应用中,条件变量常用于实现生产者消费者模型、任务调度、资源管理等场景,帮助程序员编写高效的多线程程序。


7. 生产者消费者模型

生产者消费者模型是一种经典的多线程设计模式,广泛应用于各种并发编程场景。该模型通过一个共享的缓冲区(如阻塞队列)来解耦生产者和消费者,使得生产者和消费者可以独立地生产和消费数据,从而提高程序的并发性和性能。

为什么要使用生产者消费者模型

在实际应用中,生产者消费者模型可以有效解决以下问题:

  1. 解耦生产者和消费者:生产者和消费者通过共享缓冲区进行通信,而不需要直接相互通信。这样,生产者和消费者的实现可以独立修改,而不影响对方。
  2. 支持并发:生产者和消费者可以并发执行,提高程序的并发性和吞吐量。在多处理器系统中,生产者和消费者可以运行在不同的处理器上,实现真正的并行处理。
  3. 缓冲区的平衡作用:共享缓冲区可以平衡生产者和消费者的处理速度。如果生产者的生产速度快于消费者的消费速度,缓冲区可以暂时存储数据,避免数据丢失;如果消费者的消费速度快于生产者的生产速度,缓冲区可以缓存数据,避免消费者等待。
生产者消费者模型的优点
  1. 解耦:生产者和消费者通过共享缓冲区进行通信,避免了直接的依赖关系,使得生产者和消费者的实现可以独立修改和扩展。
  2. 支持并发:生产者和消费者可以并发执行,提高了程序的并发性和性能。在多处理器系统中,生产者和消费者可以运行在不同的处理器上,实现真正的并行处理。
  3. 缓冲区的平衡作用:共享缓冲区可以平衡生产者和消费者的处理速度,避免数据丢失和等待,提高了系统的稳定性和响应速度。
  4. 扩展性好:生产者和消费者模型可以方便地扩展为多个生产者和多个消费者,通过增加缓冲区的容量和生产者/消费者的数量,可以轻松应对不同的负载需求。
  5. 提高资源利用率:生产者和消费者模型可以充分利用系统资源,避免资源浪费。生产者和消费者可以并发执行,提高了CPU和I/O设备的利用率。
基于BlockingQueue的生产者消费者模型

阻塞队列(BlockingQueue)是一种常用的数据结构,支持线程安全的入队和出队操作。在生产者消费者模型中,生产者线程将数据放入阻塞队列,消费者线程从阻塞队列取出数据。阻塞队列在队列为空时,消费者线程会被阻塞;在队列满时,生产者线程会被阻塞,从而实现生产者和消费者的同步。

C++ queue模拟阻塞队列的生产消费模型

#include <iostream>
#include <queue>
#include <pthread.h>

#define QUEUE_SIZE 10

std::queue<int> queue;
pthread_mutex_t mutex;
pthread_cond_t cond;

void *producer(void *arg) {
    int i = 0;
    while (true) {
        pthread_mutex_lock(&mutex);
        while (queue.size() == QUEUE_SIZE) {
            pthread_cond_wait(&cond, &mutex);
        }
        queue.push(i++);
        pthread_cond_signal(&cond);
        pthread_mutex_unlock(&mutex);
        sleep(1);
    }
    return NULL;
}

void *consumer(void *arg) {
    while (true) {
        pthread_mutex_lock(&mutex);
        while (queue.empty()) {
            pthread_cond_wait(&cond, &mutex);
        }
        int data = queue.front();
        queue.pop();
        pthread_cond_signal(&cond);
        pthread_mutex_unlock(&mutex);
        std::cout << "Consumed: " << data << std::endl;
        sleep(1);
    }
    return NULL;
}

int main() {
    pthread_t prod, cons;
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    pthread_create(&prod, NULL, producer, NULL);
    pthread_create(&cons, NULL, consumer, NULL);
    pthread_join(prod, NULL);
    pthread_join(cons, NULL);
    pthread_mutex_destroy(&mutex);
    pthread_cond_destroy(&cond);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53

在上面的示例中,我们使用C++标准库的std::queue作为共享缓冲区,通过互斥量和条件变量实现生产者消费者模型。生产者线程在缓冲区满时等待消费者

线程消费数据,消费者线程在缓冲区为空时等待生产者线程生产数据。

POSIX信号量实现生产者消费者模型

#include <iostream>
#include <vector>
#include <stdlib.h>
#include <semaphore.h>
#include <pthread.h>

#define NUM 16

class RingQueue {
private:
    std::vector<int> q;
    int cap;
    sem_t data_sem;
    sem_t space_sem;
    int consume_step;
    int product_step;

public:
    RingQueue(int _cap = NUM) : q(_cap), cap(_cap) {
        sem_init(&data_sem, 0, 0);
        sem_init(&space_sem, 0, cap);
        consume_step = 0;
        product_step = 0;
    }

    void PutData(const int &data) {
        sem_wait(&space_sem); // P
        q[consume_step] = data;
        consume_step++;
        consume_step %= cap;
        sem_post(&data_sem); // V
    }

    void GetData(int &data) {
        sem_wait(&data_sem);
        data = q[product_step];
        product_step++;
        product_step %= cap;
        sem_post(&space_sem);
    }

    ~RingQueue() {
        sem_destroy(&data_sem);
        sem_destroy(&space_sem);
    }
};

void *consumer(void *arg) {
    RingQueue *rqp = (RingQueue*)arg;
    int data;
    while (true) {
        rqp->GetData(data);
        std::cout << "Consume data done: " << data << std::endl;
        sleep(1);
    }
    return NULL;
}

void *producer(void *arg) {
    RingQueue *rqp = (RingQueue*)arg;
    srand((unsigned long)time(NULL));
    while (true) {
        int data = rand() % 1024;
        rqp->PutData(data);
        std::cout << "Produce data done: " << data << std::endl;
        sleep(1);
    }
    return NULL;
}

int main() {
    RingQueue rq;
    pthread_t c, p;
    pthread_create(&c, NULL, consumer, (void*)&rq);
    pthread_create(&p, NULL, producer, (void*)&rq);
    pthread_join(c, NULL);
    pthread_join(p, NULL);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79

在上面的示例中,我们使用POSIX信号量实现了基于环形队列的生产者消费者模型。信号量data_sem用于计数缓冲区中的数据数量,space_sem用于计数缓冲区中的空闲空间数量。生产者线程在缓冲区满时等待,消费者线程在缓冲区为空时等待,从而实现生产者和消费者的同步。

生产者消费者模型是一种强大而灵活的多线程设计模式,通过合理使用该模型,可以有效提高程序的并发性和性能。在实际应用中,生产者消费者模型常用于任务调度、数据处理、日志记录等场景,帮助程序员编写高效、稳定的并发程序。


8. 线程池

线程池是一种用于管理和复用线程的技术,通过预先创建一定数量的线程来处理任务,从而避免了频繁创建和销毁线程带来的开销。线程池可以显著提高服务器的响应速度,特别是在面对大量短时间任务时。

线程池的基本概念

线程池通过维护一个线程集合和一个任务队列,管理线程的生命周期。当有新任务到达时,线程池从任务队列中获取任务并分配给空闲线程执行;当所有线程都在忙碌时,新任务会被添加到任务队列中等待执行。当一个线程完成任务后,会继续从任务队列中获取新任务执行,直到任务队列为空或线程池被销毁。

线程池的优点
  1. 减少线程创建和销毁的开销:线程的创建和销毁是有代价的,特别是在处理大量短时间任务时,这些开销会显著影响系统性能。线程池通过复用线程,减少了频繁创建和销毁线程的开销。
  2. 提高响应速度:线程池中的线程可以快速响应新任务的到来,避免了线程创建的延迟,从而提高了系统的响应速度。
  3. 优化资源利用:线程池可以根据系统的负载情况动态调整线程的数量,优化系统资源的利用率。通过设置线程池的最大和最小线程数,可以避免系统资源的过度占用和浪费。
  4. 简化并发编程:线程池封装了线程管理和任务调度的细节,简化了并发编程的复杂性。程序员只需要将任务提交给线程池,而不需要关心线程的创建、销毁和调度。
线程池的实现示例

下面是一个简单的线程池实现示例,包括任务的定义、线程池的创建、任务的提交和线程池的销毁。

任务的定义

typedef void (*task_func)(void*);

struct Task {
    task_func func;
    void* arg;
};
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

线程池的实现

#include <iostream>
#include <queue>
#include <pthread.h>

#define MAX_THREADS 5

std::queue<Task> task_queue;
pthread_mutex_t mutex;
pthread_cond_t cond;
bool stop = false;

void* thread_pool_worker(void* arg) {
    while (true) {
        pthread_mutex_lock(&mutex);
        while (task_queue.empty() && !stop) {
            pthread_cond_wait(&cond, &mutex);
        }
        if (stop && task_queue.empty()) {
            pthread_mutex_unlock(&mutex);
            break;
        }
        Task task = task_queue.front();
        task_queue.pop();
        pthread_mutex_unlock(&mutex);
        task.func(task.arg);
    }
    return NULL;
}

void thread_pool_init(pthread_t* threads) {
    pthread_mutex_init(&mutex, NULL);
    pthread_cond_init(&cond, NULL);
    for (int i = 0; i < MAX_THREADS; ++i) {
        pthread_create(&threads[i], NULL, thread_pool_worker, NULL);
    }
}

void thread_pool_add_task(task_func func, void* arg) {
    pthread_mutex_lock(&mutex);
    task_queue.push({func, arg});
    pthread_cond_signal(&cond);
    pthread_mutex_unlock(&mutex);
}

void thread_pool_shutdown(pthread_t* threads) {
    pthread_mutex_lock(&mutex);
    stop = true;
    pthread_cond_broadcast(&cond);
    pthread_mutex_unlock(&mutex);
    for (int i = 0; i < MAX_THREADS; ++i) {
        pthread_join(threads[i], NULL);
    }
    pthread_mutex_destroy(&mutex);
    pthread_cond_destroy(&cond);
}

void print_message(void* arg) {
    std::cout << "Task executed: " << (char*)arg << std::endl;
}

int main() {
    pthread_t threads[MAX_THREADS];
    thread_pool_init(threads);
    thread_pool_add_task(print_message, (void*)"Task 1");
    thread_pool_add_task(print_message, (void*)"Task 2");
    thread_pool_add_task(print_message, (void*)"Task 3");
    sleep(3);
    thread_pool_shutdown(threads);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70

在上面的示例中,我们定义了一个简单的线程池实现,包括任务的定义、线程池的初始化、任务的添加和线程池的销毁。线程池通过一个任务队列来管理任务,当有新任务到达时,将其添加到任务队列中,并通过条件变量唤醒等待的线程。线程池中的线程从任务队列中获取任务并执行,当所有任务完成后,线程池会进入等待状态,直到有新任务到达或线程池被销毁。

线程池的高级特性
  1. 动态调整线程数:为了优化资源利用,线程池可以根据系统的负载情况动态调整线程的数量。在任务较多时,线程池可以增加线程数以提高处理能力;在任务较少时,线程池可以减少线程数以节省资源。
  2. 任务优先级:线程池可以支持任务的优先级调度,根据任务的优先级选择合适的线程执行。高优先级任务可以优先被执行,低优先级任务则在任务队列中等待。
  3. 超时控制:为了避免任务长时间占用线程资源,线程池可以设置任务的超时时间。如果任务在规定时间内没有完成,可以取消该任务或将其重新分配给其他线程执行。
  4. 线程复用:线程池中的线程可以复用,提高线程的利用率和系统的响应速度。线程在完成一个任务后,可以立即获取下一个任务继续执行,而不需要等待线程的创建和销毁。

线程池是一种强大而灵活的多线程管理技术,通过合理使用线程池,可以显著提高系统的并发性和性能。在实际应用中,线程池广泛应用于服务器编程、任务调度、数据处理等场景,帮助程序员编写高效、稳定的并发程序。


9. 线程安全的单例模式

单例模式是一种经典的设计模式,用于确保一个类只有一个实例,并提供一个全局访问点。在多线程环境中,实现线程安全的单例

模式是一个重要的课题。本文将介绍单例模式的基本概念、饿汉模式和懒汉模式的实现方法,以及如何实现线程安全的单例模式。

单例模式的基本概念

单例模式的主要特点是:

  1. 确保一个类只有一个实例:单例模式通过私有化构造函数和提供静态访问方法,确保一个类在整个程序中只有一个实例。
  2. 提供全局访问点:单例模式提供一个全局访问点,允许程序中的其他代码访问单例实例。通过静态方法,程序可以方便地获取单例实例,并调用其方法和属性。

单例模式在以下场景中非常有用:

  1. 全局配置管理:在应用程序中,通常需要一个全局配置管理器,负责读取和管理配置文件。单例模式可以确保配置管理器在程序中只有一个实例,避免重复读取配置文件。
  2. 资源管理:在多线程环境中,通常需要一个全局资源管理器,负责分配和回收系统资源。单例模式可以确保资源管理器在程序中只有一个实例,避免资源的重复分配和冲突。
  3. 日志记录:在应用程序中,通常需要一个全局日志记录器,负责记录程序的运行日志。单例模式可以确保日志记录器在程序中只有一个实例,避免日志文件的重复打开和写入。
饿汉模式实现单例模式

饿汉模式是一种简单的单例模式实现方法,它在类加载时就创建单例实例,确保在任何情况下都只有一个实例。饿汉模式的主要特点是线程安全,但在类加载时创建实例可能会带来额外的开销。

饿汉模式实现示例

template <typename T>
class Singleton {
public:
    static T* getInstance() {
        return &instance;
    }
private:
    static T instance;
};

template <typename T>
T Singleton<T>::instance;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12

在上面的示例中,我们使用模板类Singleton实现了饿汉模式。单例实例在类加载时就创建,并通过getInstance方法返回实例的地址。由于单例实例在类加载时创建,饿汉模式的实现是线程安全的,不需要额外的同步机制。

懒汉模式实现单例模式

懒汉模式是一种延迟初始化的单例模式实现方法,它在第一次访问单例实例时才创建实例。懒汉模式的主要特点是避免了类加载时的开销,但在多线程环境中需要额外的同步机制来确保线程安全。

懒汉模式实现示例

template <typename T>
class Singleton {
public:
    static T* getInstance() {
        if (instance == nullptr) {
            instance = new T();
        }
        return instance;
    }
private:
    static T* instance;
};

template <typename T>
T* Singleton<T>::instance = nullptr;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

在上面的示例中,我们使用模板类Singleton实现了懒汉模式。单例实例在第一次访问时才创建,并通过getInstance方法返回实例的地址。由于懒汉模式在多线程环境中可能会出现多个线程同时创建实例的问题,需要额外的同步机制来确保线程安全。

线程安全的懒汉模式实现

为了确保懒汉模式在多线程环境中的线程安全性,可以使用双重检查锁(Double-Checked Locking)和互斥量(Mutex)来实现线程安全的单例模式。

线程安全的懒汉模式实现示例

#include <mutex>

template <typename T>
class Singleton {
public:
    static T* getInstance() {
        if (instance == nullptr) {
            std::lock_guard<std::mutex> lock(mutex);
            if (instance == nullptr) {
                instance = new T();
            }
        }
        return instance;
    }
private:
    static T* instance;
    static std::mutex mutex;
};

template <typename T>
T* Singleton<T>::instance = nullptr;

template <typename T>
std::mutex Singleton<T>::mutex;
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

在上面的示例中,我们使用互斥量mutex来确保线程安全。通过双重检查锁的机制,首先检查实例是否为nullptr,如果是,则加锁并再次检查实例是否为nullptr,然后创建实例。这样可以避免多线程环境中出现多个线程同时创建实例的问题。

单例模式的优缺点

优点

  1. 确保一个类只有一个实例:单例模式通过私有化构造函数和提供静态访问方法,确保一个类在整个程序中只有一个实例。
  2. 提供全局访问点:单例模式提供一个全局访问点,允许程序中的其他代码访问单例实例。
  3. 延迟初始化:懒汉模式实现的单例模式可以延迟初始化,在第一次访问时才创建实例,避免了类加载时的开销。

缺点

  1. 线程安全性:在多线程环境中,实现线程安全的单例模式需要额外的同步机制,如互斥量,这会增加程序的复杂性和开销。
  2. 生命周期管理:单例模式中的实例在程序结束时需要手动释放资源,否则可能会造成资源泄漏。

单例模式是一种常见的设计模式,通过合理使用单例模式,可以简化全局对象的管理,确保对象的唯一性。在多线程环境中,实现线程安全的单例模式是一个重要的课题,需要合理使用同步机制来确保线程安全。在实际应用中,单例模式广泛应用于全局配置管理、资源管理和日志记录等场景,帮助程序员编写高效、稳定的程序。


10. STL和智能指针的线程安全

在现代C++编程中,STL(Standard Template Library)和智能指针是两个非常重要的工具。STL提供了一组通用的数据结构和算法,而智能指针则用于管理动态内存的生命周期。在多线程编程中,理解STL和智能指针的线程安全性是非常重要的。

STL的线程安全

STL中的容器和算法在设计时主要关注的是性能,而不是线程安全性。因此,STL容器在多线程环境中使用时,需要程序员自行保证线程安全。

STL容器的线程安全性

  1. 读操作:如果多个线程只对STL容器进行读操作,而不进行写操作,那么这些读操作是线程安全的。因为读操作不会修改容器的状态,不会引发竞争条件。
  2. 写操作:如果有一个线程对STL容器进行写操作,而其他线程同时进行读操作或写操作,那么这些操作就不是线程安全的。写操作会修改容器的状态,可能导致竞争条件和数据不一致问题。
  3. 同步机制:在多线程环境中使用STL容器时,可以使用互斥量(Mutex)来保护对容器的访问。通过对读写操作进行加锁,可以确保多个线程在访问容器时不会发生竞争条件。

示例代码

#include <iostream>
#include <vector>
#include <thread>
#include <mutex>

std::vector<int> vec;
std::mutex vec_mutex;

void add_to_vector(int value) {
    std::lock_guard<std::mutex> lock(vec_mutex);
    vec.push_back(value);
}

void print_vector() {
    std::lock_guard<std::mutex> lock(vec_mutex);
    for (int val : vec) {
        std::cout << val << " ";
    }
    std::cout << std::endl;
}

int main() {
    std::thread t1(add_to_vector, 1);
    std::thread t2(add_to_vector, 2);
    std::thread t3(print_vector);

    t1.join();
    t2.join();
    t3.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32

在上面的示例中,我们使用互斥量vec_mutex来保护对STL容器vec的访问,确保多个线程在读写容器时不会发生竞争条件。

智能指针的线程安全

智能指针是C++11引入的一种工具,用于自动管理动态内存的生命周期,避免内存泄漏和悬空指针问题。C++标准库提供了两种常用的智能指针:unique_ptrshared_ptr

unique_ptr的线程安全性

  • unique_ptr是独占所有权的智能指针,一个对象只能有一个unique_ptr实例。当unique_ptr在单线程环境中使用时是线程安全的,因为它的所有权不能被共享。
  • 由于unique_ptr的所有权是独占的,因此在多线程环境中,不应该将同一个unique_ptr实例传递给多个线程。如果需要在多个线程中访问同一个对象,可以将对象的所有权转移给一个线程,并在该线程中创建其他类型的指针(如裸指针或shared_ptr)。

shared_ptr的线程安全性

  • shared_ptr是共享所有权的智能指针,多个shared_ptr实例可以共享同一个对象

。C++标准库中的shared_ptr是线程安全的,它通过原子操作来管理引用计数,确保多个线程可以安全地共享同一个对象。

  • 虽然shared_ptr的引用计数是线程安全的,但对共享对象的访问需要额外的同步机制来确保线程安全。如果多个线程同时读写共享对象,需要使用互斥量或其他同步机制来保护对象的访问。

示例代码

#include <iostream>
#include <memory>
#include <thread>
#include <mutex>

std::shared_ptr<int> shared_data;
std::mutex data_mutex;

void read_data() {
    std::lock_guard<std::mutex> lock(data_mutex);
    if (shared_data) {
        std::cout << "Read data: " << *shared_data << std::endl;
    }
}

void write_data(int value) {
    std::lock_guard<std::mutex> lock(data_mutex);
    if (shared_data) {
        *shared_data = value;
        std::cout << "Wrote data: " << *shared_data << std::endl;
    }
}

int main() {
    shared_data = std::make_shared<int>(42);

    std::thread t1(read_data);
    std::thread t2(write_data, 100);

    t1.join();
    t2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

在上面的示例中,我们使用shared_ptr来共享数据,通过互斥量data_mutex保护对共享数据的访问,确保多个线程在读写数据时不会发生竞争条件。

STL和智能指针的高级用法
  1. 原子操作:在某些场景下,可以使用C++11提供的原子操作来实现线程安全的数据访问。C++标准库提供了一组原子操作函数和原子类型,如std::atomic,可以确保对变量的读写操作是原子的,不会发生竞争条件。
  2. 并发容器:为了简化多线程编程,C++标准库和Boost库提供了一些并发容器,如concurrent_queueconcurrent_map等。这些容器内部实现了线程安全的操作,程序员可以直接使用它们来管理并发数据,而不需要手动实现同步机制。
  3. 智能指针的自定义删除器:智能指针允许自定义删除器来管理对象的销毁。在多线程环境中,可以使用自定义删除器来实现线程安全的对象销毁,确保对象在销毁时不会被其他线程访问。

示例代码

#include <iostream>
#include <memory>
#include <thread>
#include <mutex>

std::shared_ptr<int> shared_data;
std::mutex data_mutex;

void custom_deleter(int* ptr) {
    std::lock_guard<std::mutex> lock(data_mutex);
    delete ptr;
    std::cout << "Data deleted" << std::endl;
}

void read_data() {
    std::lock_guard<std::mutex> lock(data_mutex);
    if (shared_data) {
        std::cout << "Read data: " << *shared_data << std::endl;
    }
}

void write_data(int value) {
    std::lock_guard<std::mutex> lock(data_mutex);
    if (shared_data) {
        *shared_data = value;
        std::cout << "Wrote data: " << *shared_data << std::endl;
    }
}

int main() {
    shared_data = std::shared_ptr<int>(new int(42), custom_deleter);

    std::thread t1(read_data);
    std::thread t2(write_data, 100);

    t1.join();
    t2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40

在上面的示例中,我们使用自定义删除器custom_deleter来确保对象在销毁时的线程安全。自定义删除器通过互斥量data_mutex来保护对象的销毁过程,确保对象在销毁时不会被其他线程访问。

通过合理使用STL和智能指针的线程安全技术,可以显著提高多线程程序的稳定性和性能。在多线程编程中,理解和应用这些技术是非常重要的,它们不仅可以简化并发编程的复杂性,还可以提高程序的可维护性和可靠性。在实际应用中,程序员需要根据具体的场景选择合适的同步机制和并发容器,确保多线程环境下的数据一致性和安全性。


11. 其他常见的各种锁

在多线程编程中,除了互斥量和条件变量外,还有许多其他类型的锁,用于解决不同的并发问题。理解和使用这些锁,可以帮助程序员编写更加高效和健壮的多线程程序。本文将介绍几种常见的锁类型,包括乐观锁与悲观锁、自旋锁、公平锁和非公平锁。

乐观锁与悲观锁

悲观锁(Pessimistic Lock)
悲观锁是一种严格的锁机制,每次访问数据时,总是认为数据可能会被其他线程修改,因此在访问数据前会先加锁,以确保数据的独占访问。悲观锁适用于多写的场景,即多个线程频繁写操作数据,竞争较为激烈时。

示例代码

#include <iostream>
#include <vector>
#include <thread>
#include <mutex>

std::vector<int> vec;
std::mutex vec_mutex;

void write_data(int value) {
    std::lock_guard<std::mutex> lock(vec_mutex);
    vec.push_back(value);
    std::cout << "Wrote data: " << value << std::endl;
}

int main() {
    std::thread t1(write_data, 1);
    std::thread t2(write_data, 2);

    t1.join();
    t2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

在上面的示例中,我们使用互斥量vec_mutex来实现悲观锁,每次写操作前先加锁,确保数据的独占访问。

乐观锁(Optimistic Lock)
乐观锁是一种宽松的锁机制,每次访问数据时,总是假设数据不会被其他线程修改,因此不加锁。在提交数据修改时,会检查在此期间数据是否被其他线程修改,如果被修改,则重试或放弃操作。乐观锁适用于多读的场景,即多个线程频繁读操作数据,写操作较少时。

示例代码

#include <iostream>
#include <atomic>
#include <thread>

std::atomic<int> data(0);

void write_data(int value) {
    int expected = data.load();
    while (!data.compare_exchange_weak(expected, value)) {
        expected = data.load();
    }
    std::cout << "Wrote data: " << value << std::endl;
}

int main() {
    std::thread t1(write_data, 1);
    std::thread t2(write_data, 2);

    t1.join();
    t2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

在上面的示例中,我们使用原子操作compare_exchange_weak实现乐观锁,每次修改数据时,检查数据是否被其他线程修改,如果被修改则重试。

自旋锁

自旋锁是一种忙等待锁,线程在等待锁时不会进入阻塞状态,而是不断地检查锁的状态,直到获取锁。自旋锁适用于锁的持有时间短、线程数较少的场景,可以减少线程的上下文切换开销。

示例代码

#include <iostream>
#include <atomic>
#include <thread>

std::atomic_flag lock = ATOMIC_FLAG_INIT;

void write_data(int value) {
    while (lock.test_and_set(std::memory_order_acquire)) {
        // Busy-wait
    }
    std::cout << "Wrote data: " << value << std::endl;
    lock.clear(std::memory_order_release);
}

int main() {
    std::thread t1(write_data, 1);
    std::thread t2(write_data, 2);

    t1.join();
    t2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23

在上面的示例中,我们使用原子标志atomic_flag实现自旋锁,线程在获取锁时不断检查标志的状态,直到成功获取锁。

公平锁与非公平锁

公平锁(Fair Lock)
公平锁按照请求锁的顺序来获取锁,保证每个线程都有公平的机会获得锁。公平锁适用于需要严格控制线程访问顺序的场景,但可能会降低系统的整体性能。

非公平锁(Unfair Lock)
非公平锁不保证锁的获取顺序,可能导致某些线程长期得不到锁。非公平锁的优点是可以提高系统的整体性能,减少线程上下文切换的开销,但可能导致线程饥饿问题。

示例代码(模拟公平锁和非公平锁的区别):

#include <iostream>
#include <thread>
#include <mutex>
#include <condition_variable>
#include <queue>

std::mutex mtx;
std::condition_variable cv;
std::queue<int> q;
bool stop = false;

void producer(int id) {
    for (int i = 0; i < 5; ++i) {
        std::unique_lock<std::mutex> lock(m

tx);
        q.push(id * 10 + i);
        std::cout << "Producer " << id << " produced " << id * 10 + i << std::endl;
        cv.notify_all();
        lock.unlock();
        std::this_thread::sleep_for(std::chrono::milliseconds(100));
    }
    std::unique_lock<std::mutex> lock(mtx);
    stop = true;
    cv.notify_all();
}

void consumer(int id) {
    while (true) {
        std::unique_lock<std::mutex> lock(mtx);
        cv.wait(lock, [] { return !q.empty() || stop; });
        if (!q.empty()) {
            int data = q.front();
            q.pop();
            std::cout << "Consumer " << id << " consumed " << data << std::endl;
        } else if (stop) {
            break;
        }
    }
}

int main() {
    std::thread p1(producer, 1);
    std::thread p2(producer, 2);
    std::thread c1(consumer, 1);
    std::thread c2(consumer, 2);

    p1.join();
    p2.join();
    c1.join();
    c2.join();

    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54

在上面的示例中,我们使用条件变量和互斥量模拟了公平锁的行为,生产者和消费者按照请求锁的顺序获取锁,保证了线程的公平性。

锁的选择和使用场景
  1. 悲观锁:适用于多写的场景,确保数据的独占访问,避免竞争条件和数据不一致问题。
  2. 乐观锁:适用于多读的场景,通过检查数据是否被修改来实现线程安全,提高了系统的并发性。
  3. 自旋锁:适用于锁的持有时间短、线程数较少的场景,减少了线程的上下文切换开销,但在锁的持有时间较长时可能导致CPU资源浪费。
  4. 公平锁:适用于需要严格控制线程访问顺序的场景,保证每个线程都有公平的机会获得锁,但可能会降低系统的整体性能。
  5. 非公平锁:适用于对性能要求较高的场景,通过不保证锁的获取顺序来提高系统的整体性能,但可能导致线程饥饿问题。

在多线程编程中,合理选择和使用各种锁,可以有效解决并发问题,提高程序的稳定性和性能。理解这些锁的原理和适用场景,是编写高效、健壮的多线程程序的重要基础。在实际应用中,程序员需要根据具体的需求和场景选择合适的锁,确保程序的正确性和性能。


12. 读者写者问题

读写锁

读写锁(Reader-Writer Lock)是一种高级的同步机制,允许多个线程同时读取共享资源,但写操作需要独占锁。读写锁的设计思想是,在读操作远多于写操作的场景下,允许多个读者线程并发读取数据,提高系统的并发性和性能。

读写锁提供两种模式的锁定:

  1. 读锁(共享锁):允许多个读者线程同时获取读锁,进行并发读取操作。
  2. 写锁(独占锁):只有一个写者线程能够获取写锁,进行独占写操作。

通过读写锁,可以实现对共享资源的读写分离,提高系统的并发性和性能。特别是在多读少写的场景下,读写锁可以显著提高系统的吞吐量。

读者写者问题的基本概念

读者写者问题是一种经典的同步问题,描述了多个读者和写者如何共享对同一资源的访问。读者写者问题的解决方案需要满足以下条件:

  1. 读者优先:当有读者正在读取数据时,写者必须等待,直到所有读者都完成读取操作。
  2. 写者优先:当有写者正在写入数据时,其他读者和写者必须等待,直到写者完成写入操作。
  3. 公平性:确保读者和写者公平地获取锁,避免某些线程长期得不到锁的情况。
读写锁的基本操作

POSIX线程库提供了读写锁的实现,通过pthread_rwlock_t类型和相关函数,可以方便地实现读写锁的功能。

初始化读写锁

int pthread_rwlock_init(pthread_rwlock_t *restrict rwlock, const pthread_rwlockattr_t *restrict attr);
  • 1

销毁读写锁

int pthread_rwlock_destroy(pthread_rwlock_t *rwlock);
  • 1

获取读锁

int pthread_rwlock_rdlock(pthread_rwlock_t *rwlock);
  • 1

获取写锁

int pthread_rwlock_wrlock(pthread_rwlock_t *rwlock);
  • 1

释放锁

int pthread_rwlock_unlock(pthread_rwlock_t *rwlock);
  • 1

通过这些函数,可以方便地实现读写锁的功能,确保多线程环境下的数据一致性和安全性。

读写锁的实现示例

下面是一个简单的读写锁实现示例,通过读写锁实现对共享数据的读写分离,确保多个读者线程可以并发读取数据,而写者线程独占写操作。

示例代码

#include <pthread.h>
#include <stdio.h>
#include <unistd.h>

pthread_rwlock_t rwlock;
int shared_data = 0;

void* reader(void* arg) {
    while (1) {
        pthread_rwlock_rdlock(&rwlock);
        printf("Reader %ld: Read data: %d\n", (long)arg, shared_data);
        pthread_rwlock_unlock(&rwlock);
        sleep(1);
    }
    return NULL;
}

void* writer(void* arg) {
    while (1) {
        pthread_rwlock_wrlock(&rwlock);
        shared_data++;
        printf("Writer %ld: Wrote data: %d\n", (long)arg, shared_data);
        pthread_rwlock_unlock(&rwlock);
        sleep(2);
    }
    return NULL;
}

int main() {
    pthread_t r1, r2, w1;
    pthread_rwlock_init(&rwlock, NULL);
    pthread_create(&r1, NULL, reader, (void*)1);
    pthread_create(&r2, NULL, reader, (void*)2);
    pthread_create(&w1, NULL, writer, (void*)1);

    pthread_join(r1, NULL);
    pthread_join(r2, NULL);
    pthread_join(w1, NULL);

    pthread_rwlock_destroy(&rwlock);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42

在上面的示例中,我们使用读写锁rwlock来保护共享数据shared_data,确保多个读者线程可以并发读取数据,而写者线程独占写操作。读者线程通过pthread_rwlock_rdlock获取读锁,读取数据后通过pthread_rwlock_unlock释放锁;写者线程通过pthread_rwlock_wrlock获取写锁,写入数据后通过pthread_rwlock_unlock释放锁。

读写锁的高级用法
  1. 读者优先和写者优先:通过设置读写锁的属性,可以实现读者优先或写者优先的策略。在读者优先的策略下,读者线程可以优先获取读锁,而写者线程必须等待所有读者线程完成读取操作;在写者优先的策略下,写者线程可以优先获取写锁,而读者线程必须等待写者线程完成写入操作。
  2. 读写锁的升级和降级:读写锁支持锁的升级和降级操作。锁的升级是指将读锁升级为写锁,以便在读操作后进行写操作;锁的降级是指将写锁降级为读锁,以便在写操作后进行读操作。通过合理使用锁的升级和降级,可以提高系统的并发性和性能。
  3. 超时控制:读写锁支持超时控制,可以通过设置超时时间来控制锁的获取和释放。如果在规定时间内无法获取锁,可以选择放弃操作或重新尝试获取锁。通过超时控制,可以避免线程长期等待锁而导致的性能问题。

示例代码(实现读写锁的升级和降级):

#include <pthread.h>
#include <stdio.h>
#include <unistd.h>

pthread_rwlock_t rwlock;
int shared_data = 0;

void* reader_writer(void* arg) {
    while (1) {
        pthread_rwlock_rdlock(&rwlock);
        printf("Reader-Writer %ld: Read data: %d\n", (long)arg, shared_data);
        
        // 升级为写锁
        pthread_rwlock_unlock(&rwlock);
        pthread_rwlock_wrlock(&rwlock);
        shared_data++;
        printf("Reader-Writer %ld: Wrote data: %d\n", (long)arg, shared_data);

        // 降级为读锁
        pthread_rwlock_unlock(&rwlock);
        pthread_rwlock_rdlock(&rwlock);
        printf("Reader-Writer

 %ld: Read data again: %d\n", (long)arg, shared_data);
        
        pthread_rwlock_unlock(&rwlock);
        sleep(2);
    }
    return NULL;
}

int main() {
    pthread_t rw;
    pthread_rwlock_init(&rwlock, NULL);
    pthread_create(&rw, NULL, reader_writer, (void*)1);

    pthread_join(rw, NULL);

    pthread_rwlock_destroy(&rwlock);
    return 0;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41

在上面的示例中,我们通过读写锁实现了锁的升级和降级操作,确保读者线程在读操作后可以进行写操作,并在写操作后继续进行读操作。

通过合理使用读写锁,可以显著提高多线程程序的并发性和性能,特别是在多读少写的场景下,读写锁可以显著提高系统的吞吐量。在实际应用中,程序员需要根据具体的需求和场景选择合适的同步机制,确保多线程环境下的数据一致性和安全性。


总结

在这篇文章中,我们深入探讨了Linux多线程编程的各个方面,包括线程的基本概念、进程和线程的区别、线程控制、线程同步、生产者消费者模型、线程池、线程安全的单例模式、STL和智能指针的线程安全、各种锁以及读者写者问题。通过对这些概念和技术的详细介绍和示例代码,希望能够帮助你全面掌握Linux多线程编程的知识和技巧,从入门到精通,成为多线程编程的高手。


参考资料

  • 《Linux多线程编程指南》
  • 《深入理解计算机系统》
  • 《现代操作系统》

结束语

多线程编程虽然复杂,但也是提升程序性能和并行处理能力的有效手段。希望通过这篇文章,你能掌握多线程编程的基本原理和高级技巧,在实践中不断精进。祝你编程愉快~

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/木道寻08/article/detail/926157
推荐阅读
相关标签
  

闽ICP备14008679号