赞
踩
wmproxy
已用Rust
实现http/https
代理, socks5
代理, 反向代理, 静态文件服务器,四层TCP/UDP转发,内网穿透,后续将实现websocket
代理等,会将实现过程分享出来,感兴趣的可以一起造个轮子
gite: https://gitee.com/tickbh/wmproxy
github: https://github.com/tickbh/wmproxy
四层代理,也称为网络层代理,是基于IP地址和端口号的代理方式。它只关心数据包的源IP地址、目的IP地址、源端口号和目的端口号,不关心数据包的具体内容。四层代理主要通过报文中的目标地址和端口,再加上负载均衡设备设置的服务器选择方式,决定最终选择的内部服务器。
因为四层代理不用处理任何相关的包信息,只需将包数据传递给正确的服务器即可,所以实现相对比较简单。
以下是OSI七层模型的示意图,来源于网上
双端建立连接,也就是收到客户端的连接的时候,同时建立一条通往服务端的连接,然后做双向绑定即可完成服务。
四层代理还有udp的转发需求,需要同步将udp的数据进行转发,udp的处理方式处理会相对复杂一些,因为当前地址只有绑定一份,但是可能来自各种不同的地址,不同的客户端的(remote_ip
, remote_port
)我们需要当成一个全新的客户端。
而且有时候无法主动感知是否已经被断开了,所以也必须有超时机制,好在超时的时候能及时释放掉连接,好让系统及时的socket资源。
tcp找到相应的地址,连接,并双向绑定即可
pub async fn process<T>( data: Arc<Mutex<StreamConfig>>, local_addr: SocketAddr, mut inbound: T, _addr: SocketAddr, ) -> ProxyResult<()> where T: AsyncRead + AsyncWrite + Unpin + std::marker::Send + 'static, { let value = data.lock().await; for (_, s) in value.server.iter().enumerate() { if s.bind_addr.port() == local_addr.port() { let addr = ReverseHelper::get_upstream_addr(&s.upstream, "")?; let mut connect = HealthCheck::connect(&addr).await?; copy_bidirectional(&mut inbound, &mut connect).await?; break; } } Ok(()) }
UDP相对比较复杂,下面我们先列举内部的流程图
在stream绑定的时候,要区分出TCP还是UDP的,做分别的绑定
/// stream的绑定,按bind_mode区分出udp或者是tcp,返回相应的列表 pub async fn bind(&mut self) -> ProxyResult<(Vec<TcpListener>, Vec<StreamUdp>)> { let mut listeners = vec![]; let mut udp_listeners = vec![]; let mut bind_port = HashSet::new(); for value in &self.server.clone() { if bind_port.contains(&value.bind_addr.port()) { continue; } bind_port.insert(value.bind_addr.port()); if value.bind_mode == "udp" { let listener = Helper::bind_upd(value.bind_addr).await?; udp_listeners.push(StreamUdp::new(listener, value.clone())); } else { let listener = Helper::bind(value.bind_addr).await?; listeners.push(listener); } } Ok((listeners, udp_listeners)) }
我们会对连接做分别的监听,下面是udp的获取是否有新数据:
async fn multi_udp_listen_work( listens: &mut Vec<StreamUdp>, ) -> (io::Result<(Vec<u8>, SocketAddr)>, usize) { if !listens.is_empty() { let (data, index, _) = select_all(listens.iter_mut().map(|listener| { listener.next().boxed() })).await; if data.is_none() { return (Err(io::Error::new(io::ErrorKind::InvalidInput, "read none data")), index) } (data.unwrap(), index) } else { let pend = std::future::pending(); let () = pend.await; unreachable!() } }
此处我们用next,也就是我们实现了 futures_core::Stream
接口,用Poll的方式来注册实现有事件的时候来通知。
在tokio中,在read或者write的时候返回
Poll::Pending
,将会将socket的可读可写注册到底层,如果一旦系统可读可写就会通知该接口,将会重新执行一遍futures_core::Stream
我们将同时可以处理可读可写可发送事件,如果接口超时我们将关闭相应的接口。
impl Stream for StreamUdp {
type Item = io::Result<(Vec<u8>, SocketAddr)>;
fn poll_next(
mut self: std::pin::Pin<&mut Self>,
cx: &mut std::task::Context<'_>,
) -> std::task::Poll<Option<Self::Item>> {
let _ = self.poll_write(cx)?;
let _ = self.poll_sender(cx)?;
self.poll_read(cx)
}
}
下面是主要的StreamUdp
类
/// Udp转发的处理结构,缓存一些数值以做中转 pub struct StreamUdp { /// 读的缓冲类,避免每次都释放 pub buf: BinaryMut, /// 核心的udp绑定端口 pub socket: UdpSocket, pub server: ServerConfig, /// 如果接收该数据大小为0,那么则代表通知数据关闭 pub receiver: Receiver<(Vec<u8>, SocketAddr)>, /// 将发送器传达给每个子协程 pub sender: Sender<(Vec<u8>, SocketAddr)>, /// 接收的缓存数据,无法保证全部直接进行发送完毕 pub cache_data: LinkedList<(Vec<u8>, SocketAddr)>, /// 发送的缓存数据,无法保证全部直接进行发送完毕 pub send_cache_data: LinkedList<(Vec<u8>, SocketAddr)>, /// 每个地址绑定的对象,包含Sender,最后操作时间,超时时间 remote_sockets: HashMap<SocketAddr, InnerUdp>, }
我们自己开一个udp服务端,绑定了本地的8089
,我们将接收到的数据前面加上from server:
并进行返回,代理端我们绑定了84
的端口,并将udp数据转发给8089
端:
use tokio::net::UdpSocket;
use std::io;
#[tokio::main]
async fn main() -> io::Result<()> {
let sock = UdpSocket::bind("0.0.0.0:8089").await?;
let mut buf = [0; 1024];
loop {
let (len, addr) = sock.recv_from(&mut buf).await?;
let mut vec = "from server: ".as_bytes().to_vec();
vec.extend(&buf[..len]);
let _ = sock.send_to(&vec, addr).await?;
}
}
客户端我们用nc
运行:
可以看出两个客户端互相独立,彼此返回的数据均符合预期,正常的接收及返回。
TCP我们绑定了83端口并转发到HTTP的本地端口8080,我们用curl
进行测试,符合预期,如图:
至此四层的反向代理TCP/UDP均已完成,也符合预期。
点击 [关注],[在看],[点赞] 是对作者最大的支持
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。