kafka_xinguan1267的博客-CSDN博客


本站和网页 https://blog.csdn.net/xinguan1267/article/details/98872085 的作者无关,不对其内容负责。快照谨为网络故障时之索引,不代表被搜索网站的即时页面。

kafka_xinguan1267的博客-CSDN博客
kafka
xinguan1267
于 2019-08-08 15:12:34 发布
720
收藏
分类专栏:
kafka
文章标签:
kafka
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/xinguan1267/article/details/98872085
版权
kafka
专栏收录该内容
1 篇文章
0 订阅
订阅专栏
php 扩展安装
https://arnaud.le-blanc.net/php-rdkafka/phpdoc/rdkafka.installation.manual.html
全局配置属性
属性C/P范围默认值描述builtin.features* gzip, snappy, ssl, sasl, regex, lz4标示该librdkafka的支持的内建特性。应用程序可以查看或设置这些值来检查是否支持这些特性。Type: CSV flagsclient.id* rdkafka客户端标示。Type: stringmetadata.broker.list*  初始化的broker列表。应用程序也可以使用 rd_kafka_brokers_add() 在运行时添加 broker。Type: stringbootstrap.servers*  参考 metadata.broker.listmessage.max.bytes*1000 .. 10000000001000000最大发送消息大小。Type: integermessage.copy.max.bytes*0 .. 100000000065535消息拷贝到缓存的最大大小。如果消息大于这个值,将会消耗更多的iovec而采用引用(零拷贝)方式。Type: integerreceive.message.max.bytes*1000 .. 1000000000100000000最大接收消息大小。这是一个安全预防措施,防止协议饱和时内存耗尽。这个值至少为 fetch.message.max.bytes * 消费者分区数 + 消息头大小 (e.g. 200000 bytes). Type: integermax.in.flight.requests.per.connection*1 .. 10000001000000客户端保持的最大发送请求数。 该配置应用于每一个 broker 连接. Type: integermetadata.request.timeout.ms*10 .. 90000060000无数据请求超时时间,毫秒。 适用于 metadata 请求等。Type: integertopic.metadata.refresh.interval.ms*-1 .. 3600000300000Topic metadata 刷新间隔,毫秒。metadata 自动刷新错误和连接。设置为 -1 关闭刷新间隔。 Type: integermetadata.max.age.ms*  参考 topic.metadata.refresh.interval.mstopic.metadata.refresh.fast.cnt*0 .. 100010当 topic 丢失 leader, metadata 请求的发送次数,发送间隔是 topic.metadata.refresh.fast.interval.ms而不是 topic.metadata.refresh.interval.ms。 该配置用于快速修复broker leader。Type: integertopic.metadata.refresh.fast.interval.ms*1 .. 60000250参考 topic.metadata.refresh.fast.cnt。Type: integertopic.metadata.refresh.sparse*true, falsetrue极少的 metadata 请求 (消费者的网络带宽很小) Type: booleantopic.blacklist*  Topic 黑名单,逗号分隔的正则表达式列表,匹配topic名字,匹配到的 topic 如果不存在,就在 broker metadata 信息中忽略。Type: pattern listdebug*generic, broker, topic, metadata, queue, msg, protocol, cgrp, security, fetch, feature, all 逗号分隔的列表,控制 debug 上下文。调试生产者:broker,topic,msg。调试消费者:cgrp,topic,fetch Type: CSV flagssocket.timeout.ms*10 .. 30000060000网络请求超时时间。Type: integersocket.blocking.max.ms*1 .. 60000100broker 在 socket 操作时最大阻塞时间。值越低,响应越快,但会略微提高CPU使用率。Type: integersocket.send.buffer.bytes*0 .. 1000000000Broker socket 发送缓冲大小。系统默认为 0。Type: integersocket.receive.buffer.bytes*0 .. 1000000000Broker socket 接收缓冲大小。系统默认为 0。Type: integersocket.keepalive.enable*true, falsefalseBroker sockets 允许 TCP 保持活力 (SO_KEEPALIVE)。Type: booleansocket.max.fails*0 .. 10000003Broker 关闭连接的最大错误次数(e.g., timed out requests)。0不关闭。提示:连接自动重新建立。Type: integerbroker.address.ttl*0 .. 864000001000保存 broker 地址响应结果的时间 (毫秒)。Type: integerbroker.address.family*any, v4, v6any允许的 broker IP 地址族:any, v4, v6。Type: enum valuereconnect.backoff.jitter.ms*0 .. 3600000500通过这个值调节 broker 重连尝试 +-50%。Type: integerstatistics.interval.ms*0 .. 864000000librdkafka 统计间隔。应用程序需要通过 rd_kafka_conf_set_stats_cb()设置统计的回调函数。粒度是 1000ms. 0 关闭统计。Type: integerenabled_events*0 .. 21474836470参考 rd_kafka_conf_set_events()。Type: integererror_cb*  错误回调函数 (参考 rd_kafka_conf_set_error_cb()) Type: pointerthrottle_cb*  调节回调函数 (参考 rd_kafka_conf_set_throttle_cb()) Type: pointerstats_cb*  统计回调函数 (参考 rd_kafka_conf_set_stats_cb()) Type: pointerlog_cb*  日志回调函数 (参考 rd_kafka_conf_set_log_cb()) Type: pointerlog_level*0 .. 76日志界别 (syslog(3) levels) Type: integerlog.thread.name*true, falsefalse在日志消息中打印内部线程名。(useful for debugging librdkafka internals) Type: booleanlog.connection.close*true, falsetrue记录 broker 断开连接。由于受 0.9 版本 broker 的 connection.max.idle.ms 的影响,最好关闭。Type: booleansocket_cb*  为Socket创建回调函数提供无缝 CLOEXEC Type: pointeropen_cb*  为文件打开回调函数提供无缝 CLOEXEC Type: pointeropaque*  对应用程序不开放 (set with rd_kafka_conf_set_opaque()) Type: pointerdefault_topic_conf*  默认 topic 配置,用于自动订阅 topics Type: pointerinternal.termination.signal*0 .. 1280用于 librdkafka 调用 rd_kafka_destroy() 快速终止的信号。如果没有设置信号, 终止过程会延迟直到所有内部线程的系统调用超时返回,且 rd_kafka_wait_destroyed() 返回 true。如果设置了信号,延迟会最小化。应用程序需要屏蔽该信号,而作为内部信号句柄。Type: integerapi.version.request*true, falsefalse请求 broker 支持的API版本,调整可用协议特性的功能。如果设置为false,将使用 broker.version.fallback设置的回退版本。 提示: 依赖的 broker 版本 >=0.10.0。如果 broker(老版本)不支持该请求,使用 broker.version.fallback设置的回退版本。Type: booleanapi.version.fallback.ms*0 .. 6048000001200000配置 ApiVersionRequest 失败多长时间后,使用 broker.version.fallback 回退版本。提示: ApiVersionRequest 只用新的 broker 能使用。Type: integerbroker.version.fallback* 0.9.0老版本的 broker(<0.10.0)不支持客户端查询支持协议特性(ApiVersionRequest, see api.version.request),所以要客户端不知道什么特性可以使用。 用户使用本属性指示 broker 版本,如果 ApiVersionRequest 失败(或不可用),客户端据此属性自动调整特性。与api.version.fallback.ms 配合使用。有效值:0.9.0, 0.8.2, 0.8.1, 0.8.0. Type: stringsecurity.protocol*plaintext, ssl, sasl_plaintext, sasl_sslplaintext与 broker 通讯的协议。Type: enum valuessl.cipher.suites*  密码套件是个组合体,包括鉴权,加密,认证和秘钥交换程序,用于网络连接的安全设置交换,使用 TLS 或 SSL 网络协议。查看手册 ciphers(1) 和 `SSL_CTX_set_cipher_list(3)。 Type: stringssl.key.location*  客户端的私钥(PEM)路径,用于鉴权。Type: stringssl.key.password*  私钥密码。Type: stringssl.certificate.location*  客户端的公钥(PEM)路径,用于鉴权。Type: stringssl.ca.location*  CA 证书文件或路径,用于校验 broker key。Type: stringssl.crl.location*  CRL 路径,用于 broker 的证书校验。Type: stringsasl.mechanisms*GSSAPI, PLAINGSSAPI使用 SASL 机制鉴权。 支持:GSSAPI, PLAIN. 提示: 只能配置一种机制名。Type: stringsasl.kerberos.service.name* kafkaKafka 运行的 Kerberos 首要名。Type: stringsasl.kerberos.principal* kafkaclient客户端的 Kerberos 首要名。Type: stringsasl.kerberos.kinit.cmd* kinit -S “%{sasl.kerberos.service.name}/%{broker.name}” -k -t “%{sasl.kerberos.keytab}” %{sasl.kerberos.principal}完整的 kerberos kinit 命令串,%{config.prop.name} 替换为与配置对象一直的值,%{broker.name} broker 的主机名。Type: stringsasl.kerberos.keytab*  Kerberos keytab 文件的路径。如果不设置,则使用系统默认的。提示:不会自动使用,必须在 sasl.kerberos.kinit.cmd 中添加到模板,如 ... -t %{sasl.kerberos.keytab}。 Type: stringsasl.kerberos.min.time.before.relogin*1 .. 8640000060000Key 恢复尝试的最小时间,毫秒。Type: integersasl.username*  使用 PLAIN 机制时,SASL 用户名。Type: stringsasl.password*  使用 PLAIN 机制时,SASL 密码。Type: stringgroup.id*  客户端分组字符串。同组的客户端使用相同的 group.id。Type: stringpartition.assignment.strategy* range,roundrobinpartition 分配策略,当选举组 leader 时,分配 partition 给组成员的策略。Type: stringsession.timeout.ms*1 .. 360000030000客户端组会话探测失败超市时间。Type: integerheartbeat.interval.ms*1 .. 36000001000组会话保活心跳间隔。Type: integergroup.protocol.type* consumer组协议类型。Type: stringcoordinator.query.interval.ms*1 .. 3600000600000多久查询一次当前的客户端组协调人。如果当前的分配协调人挂了,为了更快的恢复协调人,探测时间间隔会除以 10。Type: integerenable.auto.commitCtrue, falsetrue在后台周期性的自动提交偏移量。Type: booleanauto.commit.interval.msC0 .. 864000005000消费者偏移量提交(写入)到存储的频率,毫秒。(0 = 不可用) Type: integerenable.auto.offset.storeCtrue, falsetrue为应用程序自动保存最后消息的偏移量。Type: booleanqueued.min.messagesC1 .. 10000000100000每一个 topic+partition,本地消费者队列的最小消息数。Type: integerqueued.max.messages.kbytesC1 .. 10000000001000000每一个 topic+partition,本地消费者队列的最大大小,单位kilobytes。该值应该大于 fetch.message.max.bytes。Type: integerfetch.wait.max.msC0 .. 300000100为写满fetch.min.bytes,broker 的最大等待时间。Type: integerfetch.message.max.bytesC1 .. 10000000001048576每一个 topic+partition 初始化的最大大小(bytes)用于从 broker 读消息。如果客户端遇到消息大于这个值,会逐步扩大直到塞下这个消息。Type: integermax.partition.fetch.bytesC  参考 fetch.message.max.bytesfetch.min.bytesC1 .. 1000000001broker 请求的最小数据大小,单位bytes。如果达到 fetch.wait.max.ms 时间,则不管这个配置,将已收到的数据发送给客户端。Type: integerfetch.error.backoff.msC0 .. 300000500对于 topic+partition,如果接受错误,下一个接受请求间隔多长时间。Type: integeroffset.store.methodCnone, file, brokerbroker偏移量存储方式:’file’ - 本地文件存储 (offset.store.path, et.al), ‘broker’ - 在 broker 上提交存储 (要求 Apache Kafka 0.8.2 或以后版本)。Type: enum valueconsume_cbC  消息消费回调函数 (参考 rd_kafka_conf_set_consume_cb()) Type: pointerrebalance_cbC  消费者组重新分配后调用 (参考 rd_kafka_conf_set_rebalance_cb()) Type: pointeroffset_commit_cbC  偏移量提交结果回调函数 (参考 rd_kafka_conf_set_offset_commit_cb()) Type: pointerenable.partition.eofCtrue, falsetrue当消费者到达分区结尾,发送 RD_KAFKA_RESP_ERR__PARTITION_EOF 事件。Type: booleanqueue.buffering.max.messagesP1 .. 10000000100000生产者队列允许的最大消息数。Type: integerqueue.buffering.max.kbytesP1 .. 21474836474000000生产者队列允许的最大大小,单位kb。Type: integerqueue.buffering.max.msP1 .. 9000001000生产者队列缓存数据的最大时间,毫秒。Type: integermessage.send.max.retriesP0 .. 100000002消息集发送失败重试次数。提示 重试会导致重排。Type: integerretriesP  参考 message.send.max.retriesretry.backoff.msP1 .. 300000100重试消息发送前的补偿时间。Type: integercompression.codecPnone, gzip, snappy, lz4none压缩消息集使用的压缩编解码器。这里配置的是所有 topic 的默认值,可能会被 topic 上的 compression.codec 属性覆盖。Type: enum valuebatch.num.messagesP1 .. 100000010000一个消息集最大打包消息数量。整个消息集的大小仍受限于 message.max.bytes。 Type: integerdelivery.report.only.errorPtrue, falsefalse只对失败的消息提供分发报告。Type: booleandr_cbP  分发报告回调函数 (参考 rd_kafka_conf_set_dr_cb()) Type: pointerdr_msg_cbP  分发报告回调函数 (参考 rd_kafka_conf_set_dr_msg_cb()) Type: pointer
Topic 配置属性
属性C/P范围默认值描述request.required.acksP-1 .. 10001这个字段标示 leader broker 要从 ISR broker 接收多少个 ack,然后才确认发送请求:0=不发送任何 response/ack 给客户端, 1=只有 leader broker 需要 ack 消息, -1 or all=broker 阻塞直到所有的同步备份(ISRs)或in.sync.replicas设置的备份返回消息提交的确认应答。Type: integeracksP  参考 request.required.acksrequest.timeout.msP1 .. 9000005000生产者请求等待应答的超时时间,毫秒。这个值仅在 broker 上强制执行。参考 request.required.acks,不能等于 0. Type: integermessage.timeout.msP0 .. 900000300000本地消息超时时间。这个值仅在本地强制执行,限制生产的消息等待被成功发送的等待时间,0 是不限制。Type: integerproduce.offset.reportPtrue, falsefalse报告生产消息的偏移量给应用程序。应用程序必须使用 dr_msg_cb 从 rd_kafka_message_t.offset 中获取偏移量。Type: booleanpartitioner_cbP  分区方法回调函数 (参考 rd_kafka_topic_conf_set_partitioner_cb()) Type: pointeropaque*  应用程序不可见 (参考 rd_kafka_topic_conf_set_opaque()) Type: pointercompression.codecPnone, gzip, snappy, lz4, inheritinherit压缩消息集的压缩编解码器。Type: enum valueauto.commit.enableCtrue, falsetrue如果是 true,周期性的提交最后一个消息的偏移量。用于当程序重启时抛弃不用的消息。如果是 false,应用程序需要调用 rd_kafka_offset_store() 保存偏移量 (可选). 提示 这个属性时能用于简单消费者,high-level KafkaConsumer 会被全局的 enable.auto.commit 属性替代。提示 目前没有整合 zookeeper,根据 offset.store.method 的配置 偏移量将写入 broker 或本地文件 file according to offset.store.method. Type: booleanenable.auto.commitC  参考 auto.commit.enableauto.commit.interval.msC10 .. 8640000060000消费者偏移量提交(写入)到存储的频率,毫秒。Type: integerauto.offset.resetCsmallest, earliest, beginning, largest, latest, end, errorlargest如果偏移量存储还没有初始化或偏移量超过范围时的处理方式:Action to take when there is no initial offset in offset store or the desired offset is out of range: ‘smallest’,’earliest’ - 自动重设偏移量为最小偏移量,’largest’,’latest’ - 自动重设偏移量为最大偏移量,’error’ - 通过消费消息触发一个错误,请检查 message->err。 Type: enum valueoffset.store.pathC .存储偏移量的本地文件路径。如果路径是个目录,在目录下自动创建基于 topic 和 partition 的文件名。Type: stringoffset.store.sync.interval.msC-1 .. 86400000-1偏移量文件 fsync() 的间隔,毫秒。-1 不同步,0 每次写入后立即同步。Type: integeroffset.store.methodCfile, brokerbroker偏移量存储方式:’file’ - 本地文件存储 (offset.store.path, et.al), ‘broker’ - 在 broker 上提交存储 (要求 Apache Kafka 0.8.2 或以后版本)。Type: enum valueconsume.callback.max.messagesC0 .. 10000000一次 rd_kafka_consume_callback*() 调配的最大消息数 (0 = 无限制) Type: integer
C/P 含义:C = 生产者, P = 消费者, * = 二者都有
xinguan1267
关注
关注
点赞
收藏
打赏
评论
kafka
php 扩展安装https://arnaud.le-blanc.net/php-rdkafka/phpdoc/rdkafka.installation.manual.html全局配置属性属性C/P范围默认值描述builtin.features*gzip, snappy, ssl, sasl, regex, lz4...
复制链接
扫一扫
专栏目录
librdkafka配置参数
02-23
1万+
librdkafka配置参数
以表格形式列出了librdkafka库中的控制参数信息
【Kafka】Kafka 简介 || CentOS7 安装 Kafka || SpringBoot整合 Kafka 方式
最新发布
liuwanqing233333的博客
12-14
188
本文主要包含 Kafka 简介 、 CentOS7 安装 Kafka 以及 SpringBoot整合 Kafka 方式
参与评论
您还未登录,请先
登录
后发表或查看评论
librdkafka的安装和使用
热门推荐
ljp1919的专栏
06-24
4万+
安装:下载https://github.com/edenhill/librdkafka
预备环境:The GNU toolchain
GNU make
pthreads
zlib (optional, for gzip compression support)
libssl-dev (optional, for SSL and SASL SCRAM support)
libsasl2-dev (
kafka consumer 消费到 ERR__PARTITION_EOF问题
Terminator的专栏
10-24
497
kafka ERR__PARTITION_EOF的解释。
【原创】利用librdkafka实现的可延迟回写offset的消费者实例
kloselhy的博客
10-18
1645
在Kafka 0.8.2 或以后版本中,支持将offset提交给broker,由broker管理偏移量。在librdkafka中也支持配置偏移量存储方式:’file’ - 本地文件存储 (offset.store.path, et.al), ‘broker’ - 在 broker 上提交存储。
但是在实际应用场景中,往往会遇到这样一种情景:消费者消费了消息,然后进行处理,当处理失败或者消费者异常...
2021-06-04
weixin_44312064的博客
06-04
115
Configuration properties
Global configuration properties
Property
C/P
Range
Default
Importance
Description
builtin.features
gzip, snappy, ssl, sasl, regex, lz4, sasl_gssapi, sasl_plain, sasl_scram, plugins, zstd, sasl_oauthbearer
low
Indicates t
使用librdkafka作为producer (一)
Coder
12-23
9688
github地址: https://github.com/edenhill/librdkafka
使用librdkafka开发一个producer的步骤:
librdkafka:
1. conf 设置
kafka conf:
rd_kafka_conf_new(): rd_kafka_conf_set()
topic conf:
rd_kafka_topic_
ArchLinux上安装librdkafka
Dean Chen的专栏
04-29
1万+
ArchLinux上安装librdkafkaTable of Contents1. 下载github代码2. 编译3. 安装1 下载github代码git clone https://github.com/edenhill/librdkafka.git
2 编译确保在master branch中,然后运行命令[dean@dell_xps_13 librdkafka]$ ./configure
librdkafka配置参数详解
大隐隐于野
02-26
2381
全局配置参数
Property
C/P
Range
Default
Description
builtin.features
gzip, snappy, ssl, sasl, regex, lz4, sasl_gssapi, sasl_plain, sasl_scram, plugins
标示该librdkafka的支持的内建特性。应用...
librdkafka和Broker版本兼容
08-08
1500
摘自:https://github.com/edenhill/librdkafka/wiki/Broker-version-compatibility自从发布了0.8.0.0.0版本之后,librdkafka支持所有的发布版本的Apache Kafka broker,但不是所有的语法属性都能被broker接受,因为一些语法特性依赖于broker的具体实现当前的默认配置:api...
librdkafka问题小记
cjf_wei的博客
04-02
7654
librdkafka问题小纪本文介绍在使用kafka的C++客户端librdkafka时遇到的一些问题及解决方法。1.生产者消息尺寸太大;2.生产者没有定期回调poll()方法
kafka c语言开发,librdkafka: librdkafka 是 Apache Kafka 的 C/C++ 开发包,提供生产者、消费者和管理客户端...
weixin_32480781的博客
05-20
185
librdkafka - the Apache Kafka C/C++ client libraryCopyright (c) 2012-2020, Magnus Edenhill.librdkafka is a C library implementation of theApache Kafka protocol, providing Producer, Consumerand Admin c...
librdkafka介绍文档与配置参数
phymat.nico的专栏
06-10
789
https://blog.csdn.net/blackocular/article/details/53837863
https://blog.csdn.net/zzhongcy/article/details/91845007
kafka带kerberos和sasl安全认证:命令行消费指定topic数据
海若_matrix的博客
12-24
4519
1.指令
/usr/hdp/kafka/bin/kafka-console-consumer.sh ...
2.注意事项
1.添加对应sasl安全认证的参数
正常指令后边添加参数:...
2.使用命令前要刷新keberos票据
指令:kinit -..
librdkafka介绍文档
12-23
1万+
Introduction to librdkafka - the Apache Kafka C/C++ client library
librdkafka: 如何设置Kafka消费者订阅消息的起始偏移位置
Bob Liu的程序人生
02-28
1万+
缺省配置
默认情况下,Kafka消费者从最后一次提交的偏移量位置(offset)开始消费消息,如果Topic+Partition和Group之前没有提交过偏移量,它订阅消息开始位置取决于Topic的配置属性auto.offset.reset的设置。默认为最新(latest),也就是在分区末尾开始消耗(仅消费新消息)。相关配置可以参考官方文档:https://kafka.apache.org/doc...
librdkafka
lusic01的专栏
08-20
4676
kafka学习笔记:知识点整理
一、为什么需要消息系统
1.解耦:
  允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。
2.冗余:
  消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被...
librdkafka 配置相关源码阅读笔记
icycode的专栏
04-06
1342
概述
librdkafka 是kafka官方推荐的C客户端库,提供生产者API、低级和高级消费者API。根据librdkafka提供的文档介绍,其性能也是蛮不错的。近期因项目需要,简单阅读了librdkafka-0.11.1.x版本topic配置和全局配置相关的一些代码,并整理了一些笔记。
librdkafka 下载地址: https://github.com/edenhill/librdka...
“相关推荐”对你有帮助么?
非常没帮助
没帮助
一般
有帮助
非常有帮助
提交
©️2022 CSDN
皮肤主题:大白
设计师:CSDN官方博客
返回首页
xinguan1267
CSDN认证博客专家
CSDN认证企业博客
码龄15年
暂无认证
55
原创
10万+
周排名
152万+
总排名
82万+
访问
等级
4386
积分
117
粉丝
86
获赞
47
评论
153
收藏
私信
关注
热门文章
ZooKeeper原理及使用
201528
Git 一些错误的解决方法
113337
使用phpize建立php扩展(Cannot find config.m4)
46044
Linux下添加FTP账号和服务器、增加密码和用户,更改FTP目录
43910
redis 命令行操作记录
40082
分类专栏
nginx
1篇
php
19篇
Linux
28篇
mysql
13篇
nosql
4篇
记忆
2篇
redis
2篇
memcache
4篇
学习
1篇
http
git
1篇
工具
1篇
nosql mongodb
1篇
session
1篇
kafka
1篇
最新评论
Nginx测试环境Https配置[自签证书]
hjt497821976:
大神好,请教一个问题的哈!我这边现在小程序开发差不多完成了,但是需要配置支持https协议以及wss协议,普通业务走websocket协议,图片加载什么的走https协议的。
现在后台那边繁忙,说是先搭建Apache服务器来配置SSL证书,然后自行访问验证证书一下是否OK的!验证OK之后后台那边才移植到正式服务器。
现在已经搭建好Apache服务器的了,然后也通过公司的域名wxpg.10vvv.cn来申请SSL证书的了,我这边需要怎么才能测试验证这个SSL证书的哦?Apache是2.4的,自签名证书在本地浏览器那里可以测试OK的了,配置文件httpd-ssl.conf文件切换到SSL证书的时候,就无法访问根目录下的HTML页面了!
这个问题怎么解决的哦?是不是我这种方式是无法验证这个SSL证书?还是说必须要通过阿里云或腾讯云之类的服务器才能验证?本地的Apache服务器是无法连接到CA的验证主机的吧无法进行验证的吧?!
Nginx测试环境Https配置[自签证书]
hjt497821976:
大神好,直接切换到阿里云上申请的SSL证书的,也可以的吗?不需要另外什么配置的了吗 ?
Warning: mysql_connect(): Bad handshake in
七分饱��:
建议查看是不是有进程占用了3306端口
Warning: mysql_connect(): Bad handshake in
.Passion:
不晓得还发出来...
ZooKeeper原理及使用
Leonarde_WP:
难得的好文
您愿意向朋友推荐“博客详情页”吗?
强烈不推荐
不推荐
一般般
推荐
强烈推荐
提交
最新文章
在docker以FPM-PHP运行php,慢日志导致的BUG分析
磁盘使用率大于90% 磁盘inode使用率大于90%
Nginx测试环境Https配置[自签证书]
2019年7篇
2015年7篇
2014年16篇
2013年4篇
2012年22篇
2011年24篇
2010年8篇
2009年2篇
2008年3篇
目录
目录
分类专栏
nginx
1篇
php
19篇
Linux
28篇
mysql
13篇
nosql
4篇
记忆
2篇
redis
2篇
memcache
4篇
学习
1篇
http
git
1篇
工具
1篇
nosql mongodb
1篇
session
1篇
kafka
1篇
目录
评论
被折叠的 条评论
为什么被折叠?
到【灌水乐园】发言
查看更多评论
打赏作者
xinguan1267
你的鼓励将是我创作的最大动力
¥2
¥4
¥6
¥10
¥20
输入1-500的整数
余额支付
(余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付
您的余额不足,请更换扫码支付或充值
打赏作者
实付元
使用余额支付
点击重新获取
扫码支付
钱包余额
抵扣说明:
1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。 2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。
余额充值