Node.js中的cluster怎么使用


本文小编为大家详细介绍“Node.js中的cluster怎么使用”,内容详细,步骤清晰,细节处理妥当,希望这篇“Node.js中的cluster怎么使用”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。 当初使用 cluster 时,一直好奇它是怎么做到多个子进程监听同一个端口而不冲突的,比如下面这段代码:

constcluster=require('cluster')
constnet=require('net')
constcpus=require('os').cpus()

if(cluster.isPrimary){
for(leti=0;i

该段代码通过父进程 fork 出了多个子进程,且这些子进程都监听了 9999 这个端口并能正常提供服务,这是如何做到的呢?我们来研究一下。学习 Node.js 官方提供库最好的方式当然是调试一下,所以,我们先来准备一下环境。注:本文的操作系统为 macOS Big Sur 11.6.6,其他系统请自行准备相应环境。编译 Node.js下载 Node.js 源码

gitclonehttps://github.com/nodejs/node.git

然后在下面这两个地方加入断点,方便后面调试用:

//lib/internal/cluster/primary.js
functionqueryServer(worker,message){
debugger;
//Stopprocessingifworkeralreadydisconnecting
if(worker.exitedAfterDisconnect)return;

...
}

//lib/internal/cluster/child.js
send(message,(reply,handle)=>{
debugger
if(typeofobj._setServerData==='function')obj._setServerData(reply.data)

if(handle){
//Sharedlistensocket
shared(reply,{handle,indexesKey,index},cb)
}else{
//Round-robin.
rr(reply,{indexesKey,index},cb)
}
})

进入目录,执行

./configure--debug
make-j4

之后会生成 out/Debug/node准备 IDE 环境使用 vscode 调试,配置好 launch.json 就可以了(其他 IDE 类似,请自行解决):

{
"version":"0.2.0",
"configurations":[
{
"name":"DebugC++",
"type":"cppdbg",
"program":"/Users/youxingzhi/ayou/node/out/Debug/node",
"request":"launch",
"args":["/Users/youxingzhi/ayou/node/index.js"],
"stopAtEntry":false,
"cwd":"${workspaceFolder}",
"environment":[],
"externalConsole":false,
"MIMode":"lldb"
},
{
"name":"DebugNode",
"type":"node",
"runtimeExecutable":"/Users/youxingzhi/ayou/node/out/Debug/node",
"request":"launch",
"args":["--expose-internals","--nolazy"],
"skipFiles":[],
"program":"${workspaceFolder}/index.js"
}
]
}

其中第一个是用于调式 C++ 代码(需要安装 C/C++ 插件),第二个用于调式 JS 代码。接下来就可以开始调试了,我们暂时用调式 JS 代码的那个配置就好了。准备好调试代码(为了调试而已,这里启动一个子进程就够了):

debugger
constcluster=require('cluster')
constnet=require('net')

if(cluster.isPrimary){
debugger
cluster.fork()
}else{
constserver=net.createServer(function(socket){
socket.on('data',function(data){
socket.write(`Replyfrom${process.pid}:`+data.toString())
})
socket.on('end',function(){
console.log('Close')
})
socket.write('Hello!n')
})
debugger
server.listen(9999)
}

很明显,我们的程序可以分父进程和子进程这两部分来进行分析。首先进入的是父进程:执行 require('cluster') 时,会进入 lib/cluster.js 这个文件:

constchildOrPrimary='NODE_UNIQUE_ID'inprocess.env?'child':'primary'
module.exports=require(`internal/cluster/${childOrPrimary}`)

会根据当前 process.env 上是否有 NODE_UNIQUE_ID 来引入不同的模块,此时是没有的,所以会引入 internal/cluster/primary.js 这个模块:

...
constcluster=newEventEmitter();
...
module.exports=cluster

consthandles=newSafeMap()
cluster.isWorker=false
cluster.isMaster=true//Deprecatedalias.MustbesameasisPrimary.
cluster.isPrimary=true
cluster.Worker=Worker
cluster.workers={}
cluster.settings={}
cluster.SCHED_NONE=SCHED_NONE//Leaveittotheoperatingsystem.
cluster.SCHED_RR=SCHED_RR//Primarydistributesconnections.
...
cluster.schedulingPolicy=schedulingPolicy

cluster.setupPrimary=function(options){
...
}

//DeprecatedaliasmustbesameassetupPrimary
cluster.setupMaster=cluster.setupPrimary

functionsetupSettingsNT(settings){
...
}

functioncreateWorkerProcess(id,env){
...
}

functionremoveWorker(worker){
...
}

functionremoveHandlesForWorker(worker){
...
}

cluster.fork=function(env){
...
}

该模块主要是在 cluster 对象上挂载了一些属性和方法,并导出,这些后面回过头再看,我们继续往下调试。往下调试会进入 if (cluster.isPrimary) 分支,代码很简单,仅仅是 fork 出了一个新的子进程而已:

//lib/internal/cluster/primary.js
cluster.fork=function(env){
cluster.setupPrimary()
constid=++ids
constworkerProcess=createWorkerProcess(id,env)
constworker=newWorker({
id:id,
process:workerProcess,
})

...

worker.process.on('internalMessage',internal(worker,onmessage))
process.nextTick(emitForkNT,worker)
cluster.workers[worker.id]=worker
returnworker
}

cluster.setupPrimary():比较简单,初始化一些参数啥的。createWorkerProcess(id, env)

//lib/internal/cluster/primary.js
functioncreateWorkerProcess(id,env){
constworkerEnv={...process.env,...env,NODE_UNIQUE_ID:`${id}`}
constexecArgv=[...cluster.settings.execArgv]

...

returnfork(cluster.settings.exec,cluster.settings.args,{
cwd:cluster.settings.cwd,
env:workerEnv,
serialization:cluster.settings.serialization,
silent:cluster.settings.silent,
windowsHide:cluster.settings.windowsHide,
execArgv:execArgv,
stdio:cluster.settings.stdio,
gid:cluster.settings.gid,
uid:cluster.settings.uid,
})
}

可以看到,该方法主要是通过 fork 启动了一个子进程来执行我们的 index.js,且启动子进程的时候设置了环境变量 NODE_UNIQUE_ID,这样 index.jsrequire('cluster') 的时候,引入的就是 internal/cluster/child.js 模块了。worker.process.on('internalMessage', internal(worker, onmessage)):监听子进程传递过来的消息并处理。接下来就进入了子进程的逻辑:前面说了,此时引入的是 internal/cluster/child.js 模块,我们先跳过,继续往下,执行 server.listen(9999) 时实际上是调用了 Server 上的方法:

//lib/net.js
Server.prototype.listen=function(...args){
...
listenInCluster(
this,
null,
options.port|0,
4,
backlog,
undefined,
options.exclusive
);
}

可以看到,最终是调用了 listenInCluster

//lib/net.js
functionlistenInCluster(
server,
address,
port,
addressType,
backlog,
fd,
exclusive,
flags,
options
){
exclusive=!!exclusive

if(cluster===undefined)cluster=require('cluster')

if(cluster.isPrimary||exclusive){
//Willcreateanewhandle
//_listen2setsupthelistenedhandle,itisstillnamedlikethis
//toavoidbreakingcodethatwrapsthismethod
server._listen2(address,port,addressType,backlog,fd,flags)
return
}

constserverQuery={
address:address,
port:port,
addressType:addressType,
fd:f免费云主机域名d,
flags,
backlog,
...options,
}
//Gettheprimary'sserverhandle,andlistenonit
cluster._getServer(server,serverQuery,listenOnPrimaryHandle)

functionlistenOnPrimaryHandle(err,handle){
err=checkBindError(err,port,handle)

if(err){
constex=exceptionWithHostPort(err,'bind',address,port)
returnserver.emit('error',ex)
}

//Reuseprimary'sserverhandle
server._handle=handle
//_listen2setsupthelistenedhandle,itisstillnamedlikethis
//toavoidbreakingcodethatwrapsthismethod
server._listen2(address,port,addressType,backlog,fd,flags)
}
}

由于是在子进程中执行,所以最后会调用 cluster._getServer(server, serverQuery, listenOnPrimaryHandle)

//lib/internal/cluster/child.js
//这里的cb就是上面的listenOnPrimaryHandle
cluster._getServer=function(obj,options,cb){
...
send(message,(reply,handle)=>{
debugger
if(typeofobj._setServerData==='function')obj._setServerData(reply.data)

if(handle){
//Sharedlistensocket
shared(reply,{handle,indexesKey,index},cb)
}else{
//Round-robin.
rr(reply,{indexesKey,index},cb)
}
})

...
}

该函数最终会向父进程发送 queryServer 的消息,父进程处理完后会调用回调函数,回调函数中会调用 cblistenOnPrimaryHandle。看来,listen 的逻辑是在父进程中进行的了。接下来进入父进程:父进程收到 queryServer 的消息后,最终会调用 queryServer 这个方法:

//lib/internal/cluster/primary.js
functionqueryServer(worker,message){
//Stopprocessingifworkeralreadydisconnecting
if(worker.exitedAfterDisconnect)return

constkey=
`${message.address}:${message.port}:${message.addressType}:`+
`${message.fd}:${message.index}`
lethandle=handles.get(key)

if(handle===undefined){
letaddress=message.address

//Findshortestpathforunixsocketsbecauseofthe~100bytelimit
if(
message.port

可以看到,这里主要是对 handle 的处理,这里的 handle 指的是调度策略,分为 SharedHandleRoundRobinHandle,分别对应抢占式和轮询两种策略(文章最后补充部分有关于两者对比的例子)。Node.js 中默认是 RoundRobinHandle 策略,可通过环境变量 NODE_CLUSTER_SCHED_POLICY 来修改,取值可以为 noneSharedHandle) 或 rrRoundRobinHandle)。SharedHandle首先,我们来看一下 SharedHandle,由于我们这里是 TCP 协议,所以最后会通过 net._createServerHandle 创建一个 TCP 对象挂载在 handle 属性上(注意这里又有一个 handle,别搞混了):

//lib/internal/cluster/shared_handle.js
functionSharedHandle(key,address,{port,addressType,fd,flags}){
this.key=key
this.workers=newSafeMap()
this.handle=null
this.errno=0

letrval
if(addressType==='udp4'||addressType==='udp6')
rval=dgram._createSocketHandle(address,port,addressType,fd,flags)
elserval=net._createServerHandle(address,port,addressType,fd,flags)

if(typeofrval==='number')this.errno=rval
elsethis.handle=rval
}

createServerHandle 中除了创建 TCP 对象外,还绑定了端口和地址:

//lib/net.js
functioncreateServerHandle(address,port,addressType,fd,flags){
...
}else{
handle=newTCP(TCPConstants.SERVER);
isTCP=true;
}

if(address||port||isTCP){
...
err=handle.bind6(address,port,flags);
}else{
err=handle.bind(address,port);
}
}

...
returnhandle;
}

然后,queryServer 中继续执行,会调用 add 方法,最终会将 handle 也就是 TCP 对象传递给子进程:

//lib/internal/cluster/primary.js
functionqueryServer(worker,message){
...
if(!handle.data)handle.data=message.data

//Setcustomserverdata
handle.add(worker,(errno,reply,handle)=>{
const{data}=handles.get(key)

if(errno)handles.delete(key)//Givesotherworkersachancetoretry.

send(
worker,
{
errno,
key,
ack:message.seq,
data,
...reply,
},
handle//TCP对象
)
})
...
}

之后进入子进程:子进程收到父进程对于 queryServer 的回复后,会调用 shared

//lib/internal/cluster/child.js
//`obj`isanet#Serveroradgram#Socketobject.
cluster._getServer=function(obj,options,cb){
...

send(message,(reply,handle)=>{
if(typeofobj._setServerData==='function')obj._setServerData(reply.data)

if(handle){
//Sharedlistensocket
shared(reply,{handle,indexesKey,index},cb)
}else{
//Round-robin.
rr(reply,{indexesKey,index},cb)//cb是listenOnPrimaryHandle
}
})
...
}

shared 中最后会调用 cb 也就是 listenOnPrimaryHandle

//lib/net.js
functionlistenOnPrimaryHandle(err,handle){
err=checkBindError(err,port,handle)

if(err){
constex=exceptionWithHostPort(err,'bind',address,port)
returnserver.emit('error',ex)
}
//Reuseprimary'sserverhandle这里的server是index.js中net.createServer返回的那个对象
server._handle=handle
//_listen2setsupthelistenedhandle,itisstillnamedlikethis
//toavoidbreakingcodethatwrapsthismethod
server._listen2(address,port,addressType,backlog,fd,flags)
}

这里会把 handle 赋值给 server._handle,这里的 serverindex.jsnet.createServer 返回的那个对象,并调用 server._listen2,也就是 setupListenHandle

//lib/net.js
functionsetupListenHandle(address,port,addressType,backlog,fd,flags){
debug('setupListenHandle',address,port,addressType,backlog,fd)
//Ifthereisnotyetahandle,weneedtocreateoneandbind.
//InthecaseofaserversentviaIPC,wedon'tneedtodothis.
if(this._handle){
debug('setupListenHandle:haveahandlealready')
}else{
...
}

this[async_id_symbol]=getNewAsyncId(this._handle)
this._handle.onconnection=onconnection
this._handle[owner_symbol]=this

//Useabacklogof512entries.Wepass511tothelisten()callbecause
//thekerneldoes:backlogsize=roundup_pow_of_two(backlogsize+1);
//whichwillthusgiveusabacklogof512entries.
consterr=this._handle.listen(backlog||511)

if(err){
constex=uvExceptionWithHostPort(err,'listen',address,port)
this._handle.close()
this._handle=null
defaultTriggerAsyncIdScope(
this[async_id_symbol],
process.nextTick,
emitErrorNT,
this,
ex
)
return
}
}

首先会执行 this._handle.onconnection = onconnection,由于客户端请求过来时会调用 this._handle(也就是 TCP 对象)上的 onconnection 方法,也就是会执行lib/net.js 中的 onconnection 方法建立连接,之后就可以通信了。为了控制篇幅,该方法就不继续往下了。然后调用 listen 监听,注意这里参数 backlog 跟之前不同,不是表示端口,而是表示在拒绝连接之前,操作系统可以挂起的最大连接数量,也就是连接请求的排队数量。我们平时遇到的 listen EADDRINUSE: address already in use 错误就是因为这行代码返回了非 0 的错误。如果还有其他子进程,也会同样走一遍上述的步骤,不同之处是在主进程中 queryServer 时,由于已经有 handle 了,不需要再重新创建了:

functionqueryServer(worker,message){
debugger;
//Stopprocessingifworkeralreadydisconnecting
if(worker.exitedAfterDisconnect)return;

constkey=
`${message.address}:${message.port}:${message.addressType}:`+
`${message.fd}:${message.index}`;
lethandle=handles.get(key);
...
}

以上内容整理成流程图如下:所谓的 SharedHandle,其实是在多个子进程中共享 TCP 对象的句柄,当客户端请求过来时,多个进程会去竞争该请求的处理权,会导致任务分配不均的问题,这也是为什么需要 RoundRobinHandle 的原因。接下来继续看看这种调度方式。RoundRobinHandle

//lib/internal/cluster/round_robin_handle.js
functionRoundRobinHandle(
key,
address,
{port,fd,flags,backlog,readableAll,writableAll}
){
...
this.server=net.createServer(assert.fail)

...
elseif(port>=0){
this.server.listen({
port,
host:address,
//Currently,netmoduleonlysupports`ipv6Only`optionin`flags`.
ipv6Only:Boolean(flags&constants.UV_TCP_IPV6ONLY),
backlog,
})
}
...
this.server.once('listening',()=>{
this.handle=this.server._handle
this.handle.onconnection=(err,handle)=>{
this.distribute(err,handle)
}
this.server._handle=null
this.server=null
})
}

如上所示,RoundRobinHandle 会调用 net.createServer() 创建一个 server,然后调用 listen 方法,最终会来到 setupListenHandle

//lib/net.js
functionsetupListenHandle(address,port,addressType,backlog,fd,flags){
debug('setupListenHandle',address,port,addressType,backlog,fd)
//Ifthereisnotyetahandle,weneedtocreateoneandbind.
//InthecaseofaserversentviaIPC,wedon'tneedtodothis.
if(this._handle){
debug('setupListenHandle:haveahandlealready')
}else{
debug('setupListenHandle:createahandle')

letrval=null

//TrytobindtotheunspecifiedIPv6address,seeifIPv6isavailable
if(!address&&typeoffd!=='number'){
rval=createServerHandle(DEFAULT_IPV6_ADDR,port,6,fd,flags)

if(typeofrval==='number'){
rval=null
address=DEFAULT_IPV4_ADDR
addressType=4
}else{
address=DEFAULT_IPV6_ADDR
addressType=6
}
}

if(rval===null)
rval=createServerHandle(address,port,addressType,fd,flags)

if(typeofrval==='number'){
consterror=uvExceptionWithHostPort(rval,'listen',address,port)
process.nextTick(emitErrorNT,this,error)
return
}
this._handle=rval
}

this[async_id_symbol]=getNewAsyncId(this._handle)
this._handle.onconnection=onconnection
this._handle[owner_symbol]=this

...
}

且由于此时 this._handle 为空,会调用 createServerHandle() 生成一个 TCP 对象作为 _handle。之后就跟 SharedHandle 一样了,最后也会回到子进程:

//lib/internal/cluster/child.js
//`obj`isanet#Serveroradgram#Socketobject.
cluster._getServer=function(obj,options,cb){
...

send(message,(reply,handle)=>{
if(typeofobj._setServerData==='function')obj._setServerData(reply.data)

if(handle){
//Sharedlistensocket
shared(reply,{handle,indexesKey,index},cb)
}else{
//Round-robin.
rr(reply,{indexesKey,index},cb)//cb是listenOnPrimaryHandle
}
})
...
}

不过由于 RoundRobinHandle 不会传递 handle 给子进程,所以此时会执行 rr

functionrr(message,{indexesKey,index},cb){
...
//Fauxhandle.MimicsaTCPWrapwithjustenoughfidelitytogetaway
//withit.Foolsnet.Serverintothinkingthatit'sbackedbyareal
//handle.Useanoopfunctionforref()andunref()becausethecontrol
//channelisgoingtokeeptheworkeraliveanyway.
consthandle={close,listen,ref:noop,unref:noop}

if(message.sockname){
handle.getsockname=getsockname//TCPhandlesonly.
}

assert(handles.has(key)===false)
handles.set(key,handle)
debugger
cb(0,handle)
}

可以看到,这里构造了一个假的 handle,然后执行 cb 也就是 listenOnPrimaryHandle。最终跟 SharedHandle 一样会调用 setupListenHandle 执行 this._handle.onconnection = onconnectionRoundRobinHandle 逻辑到此就结束了,好像缺了点什么的样子。回顾下,我们给每个子进程中的 server 上都挂载了一个假的 handle,但它跟绑定了端口的 TCP 对象没有任何关系,如果客户端请求过来了,是不会执行它上面的 onconnection 方法的。之所以要这样写,估计是为了保持跟之前 SharedHandle 代码逻辑的统一。此时,我们需要回到 RoundRobinHandle,有这样一段代码:

//lib/internal/cluster/round_robin_handle.js
this.server.once('listening',()=>{
this.handle=this.server._handle
this.handle.onconnection=(err,handle)=>{
this.distribute(err,handle)
}
this.server._handle=null
this.server=null
})

listen 执行完后,会触发 listening 事件的回调,这里重写了 handle 上面的 onconnection。所以,当客户端请求过来时,会调用 distribute 在多个子进程中轮询分发,这里又有一个 handle,这里的 handle 姑且理解为 clientHandle,即客户端连接的 handle,别搞混了。总之,最后会将这个 clientHandle 发送给子进程:

//lib/internal/cluster/round_robin_handle.js
RoundRobinHandle.prototype.handoff=function(worker){
...

constmessage={act:'newconn',key:this.key};
//这里的handle是clientHandle
sendHelper(worker.process,message,handle,(reply)=>{
if(reply.accepted)handle.close();
elsethis.distribute(0,handle);//Workerisshuttingdown.Sendtoanother.

this.handoff(worker);
});
};

而子进程在 require('cluster') 时,已经监听了该事件:

//lib/internal/cluster/child.js
process.on('internalMessage',internal(worker,onmessage))
send({act:'online'})

functiononmessage(message,handle){
if(message.act==='newconn')onconnection(message,handle)
elseif(message.act==='disconnect')
ReflectApply(_disconnect,worker,[true])
}

最终也同样会走到 net.js 中的 function onconnection(err, clientHandle) 方法。这个方法第二个参数名就叫 clientHandle,这也是为什么前面的 handle 我想叫这个名字的原因。还是用图来总结下:跟 SharedHandle 不同的是,该调度策略中 onconnection 最开始是在主进程中触发的,然后通过轮询算法挑选一个子进程,将 clientHandle 传递给它。cluster 模块的调试就到此告一段落了,接下来我们来回答一下一开始的问题,为什么多个进程监听同一个端口没有报错?网上有些文章说是因为设置了 SO_REUSEADDR,但其实跟这个没关系。通过上面的分析知道,不管什么调度策略,最终都只会在主进程中对 TCP 对象 bind 一次。我们可以修改一下源代码来测试一下:

//deps/uv/src/unix/tcp.c下面的SO_REUSEADDR改成SO_DEBUG
if(setsockopt(tcp->io_watcher.fd,SOL_SOCKET,SO_REUSEADDR,&on,sizeof(on)))

编译后执行发现,我们仍然可以正常使用 cluster 模块。那这个 SO_REUSEADDR 到底影响的是啥呢?我们继续来研究一下。首先,我们我们知道,下面的代码是会报错的:

constnet=require('net')
constserver1=net.createServer()
constserver2=net.createServer()
server1.listen(9999)
server2.listen(9999)

但是,如果我稍微修改一下,就不会报错了:

constnet=require('net')
constserver1=net.createServer()
constserver2=net.createServer()
server1.listen(9999,'127.0.0.1')
server2.listen(9999,'10.53.48.67')

原因在于 listen 时,如果不指定 address,则相当于绑定了所有地址,当两个 server 都这样做时,请求到来就不知道要给谁处理了。我们可以类比成找对象,port 是对外貌的要求,address 是对城市的要求。现在甲乙都想要一个 port1米7以上 不限城市的对象,那如果有一个 1米7以上 来自 深圳 的对象,就不知道介绍给谁了。而如果两者都指定了城市就好办多了。那如果一个指定了 address,一个没有呢?就像下面这样:

constnet=require('net')
constserver1=net.createServer()
constserver2=net.createServer()
server1.listen(9999,'127.0.0.1')
server2.listen(9999)

结果是:设置了 SO_REUSEADDR 可以正常运行,而修改成 SO_DEBUG 的会报错。还是上面的例子,甲对城市没有限制,乙需要是来自 深圳 的,那当一个对象来自 深圳,我们可以选择优先介绍给乙,非 深圳 的就选择介绍给甲,这个就是 SO_REUSEADDR 的作用。SharedHandleRoundRobinHandle 两种模式的对比先准备下测试代码:

//cluster.js
constcluster=require('cluster')
constnet=require('net')

if(cluster.isMaster){
for(leti=0;i{
console.log(`PID:${process.pid}!`)
})
server.listen(9997)
}

//client.js
constnet=require('net')
for(leti=0;i

RoundRobin先执行 node cluster.js,然后执行 node client.js,会看到如下输出,可以看到没有任何一个进程的 PID 是紧挨着的。至于为什么没有一直按照一样的顺序,后面再研究一下。

PID:42904!
PID:42906!
PID:42905!
PID:42904!
PID:42907!
PID:42905!
PID:42906!
PID:42907!
PID:42904!
PID:42905!
PID:42906!
PID:42907!
PID:42904!
PID:42905!
PID:42906!
PID:42907!
PID:42904!
PID:42905!
PID:42906!
PID:42904!

Shared先执行 NODE_CLUSTER_SCHED_POLICY=none node cluster.js,则 Node.js 会使用 SharedHandle,然后执行 node client.js,会看到如下输出,可以看到同一个 PID 连续输出了多次,所以这种策略会导致进程任务分配不均的现象。就像公司里有些人忙到 996,有些人天天摸鱼,这显然不是老板愿意看到的现象,所以不推荐使用。

PID:42561!
PID:42562!
PID:42561!
PID:42562!
PID:42564!
PID:42561!
PID:42562!
PID:42563!
PID:42561!
PID:42562!
PID:42563!
PID:42564!
PID:42564!
PID:42564!
PID:42564!
PID:42564!
PID:42563!
PID:42563!
PID:42564!
PID:42563!

读到这里,这篇“Node.js中的cluster怎么使用”文章已经介绍完毕,想要掌握这篇文章的知识点还需要大家自己动手实践使用过才能领会,如果想了解更多相关内容的文章,欢迎关注百云主机行业资讯频道。

相关推荐: Java如何使用wait/notify实现线程间通信

本文小编为大家详细介绍“Java如何使用wait/notify实现线程间通信”,内容详细,步骤清晰,细节处理妥当,希望这篇“Java如何使用wait/notify实现线程间通信”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。线程是操作…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 03/09 10:13
下一篇 03/09 10:13

相关推荐