当前位置: 首页 > news >正文

深度解析FastDFS:构建高效分布式文件存储的实战指南(下)

接上篇:《深度解析FastDFS:构建高效分布式文件存储的实战指南(上)》
传送门: link

文章目录

  • 六、常用命令
  • 七、FastDFS配置详解
    • 7.1 tracker配置文件
    • 7.2 tracker目录及文件结构
    • 7.3 storage配置文件
    • 7.4 storage服务器的目录结构和文件
    • 7.5 client配置文件
  • 八、FastDFS优化
    • 8.1、Storage节点之间的同步速度
    • 8.2、磁盘读写速度
    • 8.3、提升storage性能参数
  • 九、监控
  • 十、常见故障与排查
    • 10.1、storage服务启动时,一直卡住启动不了
    • 10.2、上传文件失败,返回错误码28
    • 10.3、日志中出现malloc task buff failed字样的错误
    • 10.4、FastDFS的文件ID可以反解出哪些字段
    • 10.5、FastDFS整合nginx报错
    • 10.6、FastDFS整合nginx后浏览器400错误
    • 10.7、安装完fastdfs后,启动fastdfs的storage报错
    • 10.8、FastDFS故障 Idle too long, status change to offline!
    • 10.9、启动的时候提示No such file or directory

六、常用命令

fdfs_appender_test:测试命令 
fdfs_appender_test1:测试命令 
fdfs_storaged:启动、关闭、重启存储节点(Storage)的命令。 
fdfs_test:FastDFS 自带的测试程序fdfs_test1:FastDFS 自带的测试程序。 
fdfs_trackerd:启动、关闭、重启跟踪器(Tracker)的命令。 
fdfs_monitor:监控服务器状态命令
fdfs_upload_file:上传文件命令
fdfs_download_file:下载文件命令
fdfs_file_info:查看文件信息命令
fdfs_delete_file:删除文件命令
fdfs_upload_appender & fdfs_append_file:文件追加上传及追加内容指令

七、FastDFS配置详解

7.1 tracker配置文件

# is this config file disabled
# false for enabled
# true for disabled
disabled=false
# 这个配置文件是否不生效,false 为生效(否则不生效) true反之# bind an address of this host
# empty for bind all addresses of this host
bind_addr=
# 是否绑定IP,
# bind_addr= 后面为绑定的IP地址 (常用于服务器有多个IP但只希望一个IP提供服务)。如果不填则表示所有的(一般不填就OK),相信较熟练的SA都常用到类似功能,很多系统和应用都有# the tracker server port
port=22122
# 提供服务的端口,不作过多解释了# connect timeout in seconds
# default value is 30s
connect_timeout=30
#连接超时时间,针对socket套接字函数connect# network timeout in seconds
network_timeout=60
#  tracker server的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。 # the base path to store data and log files
base_path=/home/yuqing/fastdfs
# base_path 目录地址(根目录必须存在,子目录会自动创建)
# 附目录说明: tracker server目录及文件结构:${base_path}|__data|     |__storage_groups.dat:存储分组信息|     |__storage_servers.dat:存储服务器列表|__logs|__trackerd.log:tracker server日志文件

数据文件storage_groups.dat和storage_servers.dat中的记录之间以换行符(\n)分隔,字段之间以西文逗号(,)分隔。

storage_groups.dat中的字段依次为:

  1. group_name:组名
  2. storage_port:storage server端口号

storage_servers.dat中记录storage server相关信息,字段依次为:

  1. group_name:所属组名
  2. ip_addr:ip地址
  3. status:状态
  4. sync_src_ip_addr:向该storage server同步已有数据文件的源服务器
  5. sync_until_timestamp:同步已有数据文件的截至时间(UNIX时间戳)
  6. stat.total_upload_count:上传文件次数
  7. stat.success_upload_count:成功上传文件次数
  8. stat.total_set_meta_count:更改meta data次数
  9. stat.success_set_meta_count:成功更改meta data次数
  10. stat.total_delete_count:删除文件次数
  11. stat.success_delete_count:成功删除文件次数
  12. stat.total_download_count:下载文件次数
  13. stat.success_download_count:成功下载文件次数
  14. stat.total_get_meta_count:获取meta data次数
  15. stat.success_get_meta_count:成功获取meta data次数
  16. stat.last_source_update:最近一次源头更新时间(更新操作来自客户端)
  17. stat.last_sync_update:最近一次同步更新时间(更新操作来自其他storage server的同步)
 # max concurrent connections this server supported
# max_connections worker threads start when this service startup
max_connections=256
# 系统提供服务时的最大连接数。对于V1.x,因一个连接由一个线程服务,也就是工作线程数。
# 对于V2.x,最大连接数和工作线程数没有任何关系
# work thread count, should <= max_connections
# default value is 4
# since V2.00
# V2.0引入的这个参数,工作线程数,通常设置为CPU数
work_threads=4
# the method of selecting group to upload files
# 0: round robin
# 1: specify group
# 2: load balance, select the max free space group to upload file
store_lookup=2
# 上传组(卷) 的方式 0:轮询方式 1: 指定组 2: 平衡负载(选择最大剩余空间的组(卷)上传)
# 这里如果在应用层指定了上传到一个固定组,那么这个参数被绕过
# which group to upload file
# when store_lookup set to 1, must set store_group to the group name
store_group=group2
# 当上一个参数设定为1 时 (store_lookup=1,即指定组名时),必须设置本参数为系统中存在的一个组名。如果选择其他的上传方式,这个参数就没有效了。
# which storage server to upload file
# 0: round robin (default)
# 1: the first server order by ip address
# 2: the first server order by priority (the minimal)
store_server=0
# 选择哪个storage server 进行上传操作(一个文件被上传后,这个storage server就相当于这个文件的storage server源,会对同组的storage server推送这个文件达到同步效果)
# 0: 轮询方式 
# 1: 根据ip 地址进行排序选择第一个服务器(IP地址最小者)
# 2: 根据优先级进行排序(上传优先级由storage server来设置,参数名为upload_priority) 
# which path(means disk or mount point) of the storage server to upload file
# 0: round robin
# 2: load balance, select the max free space path to upload file
store_path=0
# 选择storage server 中的哪个目录进行上传。storage server可以有多个存放文件的base path(可以理解为多个磁盘)。
# 0: 轮流方式,多个目录依次存放文件
# 2: 选择剩余空间最大的目录存放文件(注意:剩余磁盘空间是动态的,因此存储到的目录或磁盘可能也是变化的)
# which storage server to download file
# 0: round robin (default)
# 1: the source storage server which the current file uploaded to
download_server=0
# 选择哪个 storage server 作为下载服务器 
# 0: 轮询方式,可以下载当前文件的任一storage server
# 1: 哪个为源storage server 就用哪一个 (前面说过了这个storage server源 是怎样产生的) 就是之前上传到哪个storage server服务器就是哪个了
# reserved storage space for system or other applications.
# if the free(available) space of any stoarge server in
# a group <= reserved_storage_space,
# no file can be uploaded to this group.
# bytes unit can be one of follows:
### G or g for gigabyte(GB)
### M or m for megabyte(MB)
### K or k for kilobyte(KB)
### no unit for byte(B)
### XX.XX% as ratio such as reserved_storage_space = 10%
reserved_storage_space = 10%
# storage server 上保留的空间,保证系统或其他应用需求空间。可以用绝对值或者百分比(V4开始支持百分比方式)。
#(指出 如果同组的服务器的硬盘大小一样,以最小的为准,也就是只要同组中有一台服务器达到这个标准了,这个标准就生效,原因就是因为他们进行备份)
#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info
# 选择日志级别(日志写在前面的说明了,有目录介绍)
#unix group name to run this program, 
#not set (empty) means run by the group of current user
run_by_group=
# 操作系统运行FastDFS的用户组 (不填 就是当前用户组,哪个启动进程就是哪个)
#unix username to run this program,
#not set (empty) means run by current user
run_by_user=
# 操作系统运行FastDFS的用户 (不填 就是当前用户,哪个启动进程就是哪个)
# allow_hosts can ocur more than once, host can be hostname or ip address,
# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
# host[01-08,20-25].domain.com, for example:
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
allow_hosts=*
# 可以连接到此 tracker server 的ip范围(对所有类型的连接都有影响,包括客户端,storage server)
# sync log buff to disk every interval seconds
# default value is 10 seconds
sync_log_buff_interval = 10
# 同步或刷新日志信息到硬盘的时间间隔,单位为秒
# 注意:tracker server 的日志不是时时写硬盘的,而是先写内存。
# check storage server alive interval
check_active_interval = 120
# 检测 storage server 存活的时间隔,单位为秒。
# storage server定期向tracker server 发心跳,如果tracker server在一个check_active_interval内还没有收到storage server的一次心跳,那边将认为该storage server已经下线。所以本参数值必须大于storage server配置的心跳时间间隔。通常配置为storage server心跳时间间隔的2倍或3倍。
# thread stack size, should > 512KB
# default value is 1MB
thread_stack_size=1MB
# 线程栈的大小。FastDFS server端采用了线程方式。更正一下,tracker server线程栈不应小于64KB,不是512KB。
# 线程栈越大,一个线程占用的系统资源就越多。如果要启动更多的线程(V1.x对应的参数为max_connections,
V2.0为work_threads),可以适当降低本参数值。
# auto adjust when the ip address of the storage server changed
# default value is true
storage_ip_changed_auto_adjust=true
# 这个参数控制当storage server IP地址改变时,集群是否自动调整。注:只有在storage server进程重启时才完成自动调整。
# storage sync file max delay seconds
# default value is 86400 seconds (one day)
# since V2.00
storage_sync_file_max_delay = 86400
# V2.0引入的参数。存储服务器之间同步文件的最大延迟时间,缺省为1天。根据实际情况进行调整
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,判断文件是否已经被同步完成的一个阀值(经验值)
# the max time of storage sync a file
# default value is 300 seconds
# since V2.00
storage_sync_file_max_time = 300
# V2.0引入的参数。存储服务器同步一个文件需要消耗的最大时间,缺省为300s,即5分钟。
# 注:本参数并不影响文件同步过程。本参数仅在下载文件时,作为判断当前文件是否被同步完成的一个阀值(经验值)
# if use a trunk file to store several small files
# default value is false
# since V3.00
use_trunk_file = false
# V3.0引入的参数。是否使用小文件合并存储特性,缺省是关闭的。
# the min slot size, should <= 4KB
# default value is 256 bytes
# since V3.00
slot_min_size = 256
# V3.0引入的参数。
# trunk file分配的最小字节数。比如文件只有16个字节,系统也会分配slot_min_size个字节。
# the max slot size, should > slot_min_size
# store the upload file to trunk file when it's size <=  this value
# default value is 16MB
# since V3.00
slot_max_size = 16MB
# V3.0引入的参数。
# 只有文件大小<=这个参数值的文件,才会合并存储。如果一个文件的大小大于这个参数值,将直接保存到一个文件中(即不采用合并存储方式)。
# the trunk file size, should >= 4MB
# default value is 64MB
# since V3.00
trunk_file_size = 64MB
# V3.0引入的参数。
# 合并存储的trunk file大小,至少4MB,缺省值是64MB。不建议设置得过大。
# if create trunk file advancely
# default value is false
trunk_create_file_advance = false
# 是否提前创建trunk file。只有当这个参数为true,下面3个以trunk_create_file_打头的参数才有效。
# the time base to create trunk file
# the time format: HH:MM
# default value is 02:00
trunk_create_file_time_base = 02:00
# 提前创建trunk file的起始时间点(基准时间),02:00表示第一次创建的时间点是凌晨2点。
# the interval of create trunk file, unit: second
# default value is 38400 (one day)
trunk_create_file_interval = 86400
# 创建trunk file的时间间隔,单位为秒。如果每天只提前创建一次,则设置为86400
# the threshold to create trunk file
# when the free trunk file size less than the threshold, will create 
# the trunk files
# default value is 0
trunk_create_file_space_threshold = 20G
# 提前创建trunk file时,需要达到的空闲trunk大小
# 比如本参数为20G,而当前空闲trunk为4GB,那么只需要创建16GB的trunk file即可。
# if check trunk space occupying when loading trunk free spaces
# the occupied spaces will be ignored
# default value is false
# since V3.09
# NOTICE: set this parameter to true will slow the loading of trunk spaces
# when startup. you should set this parameter to true when neccessary.
trunk_init_check_occupying = false
#trunk初始化时,是否检查可用空间是否被占用
# if ignore storage_trunk.dat, reload from trunk binlog
# default value is false
# since V3.10
# set to true once for version upgrade when your version less than V3.10
trunk_init_reload_from_binlog = false
# 是否无条件从trunk binlog中加载trunk可用空间信息
# FastDFS缺省是从快照文件storage_trunk.dat中加载trunk可用空间,
# 该文件的第一行记录的是trunk binlog的offset,然后从binlog的offset开始加载
# if use storage ID instead of IP address
# default value is false
# since V4.00
use_storage_id = false
# 是否使用server ID作为storage server标识
# specify storage ids filename, can use relative or absolute path
# since V4.00
storage_ids_filename = storage_ids.conf
# use_storage_id 设置为true,才需要设置本参数
# 在文件中设置组名、server ID和对应的IP地址,参见源码目录下的配置示例:conf/storage_ids.conf
# if store slave file use symbol link
# default value is false
# since V4.01
store_slave_file_use_link = false
# 存储从文件是否采用symbol link(符号链接)方式
# 如果设置为true,一个从文件将占用两个文件:原始文件及指向它的符号链接。
# if rotate the error log every day
# default value is false
# since V4.02
rotate_error_log = false
# 是否定期轮转error log,目前仅支持一天轮转一次
# rotate error log time base, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
# default value is 00:00
# since V4.02
error_log_rotate_time=00:00
# error log定期轮转的时间点,只有当rotate_error_log设置为true时有效
# rotate error log when the log file exceeds this size
# 0 means never rotates log file by log file size
# default value is 0
# since V4.02
rotate_error_log_size = 0
# error log按大小轮转
# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中
# 以下是关于http的设置了 默认编译是不生效的 要求更改 #WITH_HTTPD=1 将 注释#去掉 再编译
# 关于http的应用 说实话 不是很了解 没有见到 相关说明 ,望 版主可以完善一下 以下是字面解释了
#HTTP settings
http.disabled=false   # HTTP服务是否不生效 
http.server_port=8080  # HTTP服务端口#use "#include" directive to include http other settiongs
##include http.conf  # 如果加载http.conf的配置文件 去掉第一个#

7.2 tracker目录及文件结构

完成tracker节点的配置并启动tracker服务后,在base_path目录下会生成tracker节点运行所必 须的目录结构和文件,目录和文件如下:
${base_path}
|__data
| |__storage_groups_new.dat:存储分卷(组)信息
| |__storage_servers_new.dat:存储服务器列表
|__logs
|__trackerd.log:tracker server 日志文件

storage_groups_new.dat文件用来记录存储卷(组)的信息,文件信息示例参数说明:
group_count:卷的个数
group_name:卷(组)名
storage_port:存储服务的端口号
storage_http_port:存储服务的 http 服务端口号
store_path_count:存储节点存储路径的个数
subdir_count_per_path:每个存储路径子目录的个数
current_trunk_file_id=0:目前 trunk 文件的 id
trunk_server=trunk 服务器
last_trunk_server=最近使用的 trunk 服务器

storage_servers_new.dat文件记录了各个存储节点的详细信息,文件最后有一个节点总数的统计信息,文件信息示例:

group_name:存储节点所属组名
ip_addr:ip 地址
status:状态
version:版本
join_time:加入集群的时间
storage_port:存储节点的端口号
storage_http_port:存储节点 http 服务端口号
domain_name:域名
sync_src_server:向 storage server 同步已有数据文件的源服务器
sync_until_timestamp:同步已有数据文件的截至时间,服务器时间。
store_path_count:存储路径根目录数
subdir_count_per_path:每个根目录的子目录数
upload_priority:上传优先级
total_mb:总容量,单位 MB
free_mb:剩余空闲容量,单位 MB
total_upload_count:上传文件总个数
success_upload_count:成功上传的个数
total_append_count:总的附加文件个数
success_append_count:成功附加的文件个数
total_set_meta_count:总共更改 metadata(元数据)的次数
success_set_meta_count:成功更改 metadata 的次数
total_delete_count:总共删除文件的个数
success_delete_count:成功删除文件的个数
total_download_count:总共下载文件的个数
success_download_count:成功下载文件的个数
total_get_meta_count:总共获取 metdata 的次数
success_get_meta_count:成功获取 metdata 的次数
total_create_link_count:总共创建链接的个数
success_create_link_count:成功创建链接的个数
total_delete_link_count:总共删除链接的个数
success_delete_link_count:成功删除链接的个数
total_upload_bytes:总共上传的文件大小
success_upload_bytes:成功上传的文件大小
total_append_bytes:总得附加文件大小
success_append_bytes:成功附加的文件大小
total_download_bytes:总共下载的文件大小
success_download_bytes:成功下载的文件大小
total_sync_in_bytes:总共同步到该存储节点的文件大小
success_sync_in_bytes:成功同步到该存储节点的文件大小
total_sync_out_bytes:此节点作为源,总共同步到同组其他存储节点的文件大小
success_sync_out_bytes:此节点作为源,成功同步到同组其他存储节点的文件大小
total_file_open_count:文件打开总数
success_file_open_count:成功打开的文件数
total_file_read_count:文件读取总数
success_file_read_count:成功读取的文件数
total_file_write_count:写文件的总数
success_file_write_count:成功写文件的总数
last_source_update:最后一次源头更新时间(更新操作来自客户端)
last_sync_update:最后一次同步更新时间(更新操作来自其他 storage server 的同步)
last_synced_timestamp:最后同步时间戳
last_heart_beat_time:最后的心跳时间
changelog_offset:日志偏移量

7.3 storage配置文件

# is this config file disabled
# false for enabled
# true for disabled
disabled=false  
#同上文了 就不多说了# the name of the group this storage server belongs to
group_name=group1
# 指定 此 storage server 所在 组(卷)# bind an address of this host
# empty for bind all addresses of this host
bind_addr=
# 同上文# if bind an address of this host when connect to other servers 
# (this storage server as a client)
# true for binding the address configed by above parameter: "bind_addr"
# false for binding any address of this host
client_bind=true
# bind_addr通常是针对server的。当指定bind_addr时,本参数才有效。
# 本storage server作为client连接其他服务器(如tracker server、其他storage server),是否绑定bind_addr。# the storage server port
port=23000
#  storage server服务端口# connect timeout in seconds
# default value is 30s
connect_timeout=30
#连接超时时间,针对socket套接字函数connect# network timeout in seconds
network_timeout=60
#  storage server 网络超时时间,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败。# heart beat interval in seconds
heart_beat_interval=30
# 心跳间隔时间,单位为秒 (这里是指主动向tracker server 发送心跳)# disk usage report interval in seconds
stat_report_interval=60
# storage server向tracker server报告磁盘剩余空间的时间间隔,单位为秒。# the base path to store data and log files
base_path=/home/yuqing/fastdfs
# base_path 目录地址,根目录必须存在  子目录会自动生成 (注 :这里不是上传的文件存放的地址,之前是的,在某个版本后更改了)
# 目录结构 因为 版主没有更新到 论谈上 这里就不发了 大家可以看一下置顶贴:# max concurrent connections server supported
# max_connections worker threads start when this service startup
max_connections=256
# 同上文# work thread count, should <= max_connections
# default value is 4
# since V2.00
# V2.0引入的这个参数,工作线程数,通常设置为CPU数
work_threads=4# the buff size to recv / send data
# default value is 64KB
# since V2.00
buff_size = 256KB
# V2.0引入本参数。设置队列结点的buffer大小。工作队列消耗的内存大小 = buff_size * max_connections
# 设置得大一些,系统整体性能会有所提升。
# 消耗的内存请不要超过系统物理内存大小。另外,对于32位系统,请注意使用到的内存不要超过3GB# if read / write file directly
# if set to true, open file will add the O_DIRECT flag to avoid file caching
# by the file system. be careful to set this parameter.
# default value is false
disk_rw_direct = false
# V2.09引入本参数。设置为true,表示不使用操作系统的文件内容缓冲特性。
# 如果文件数量很多,且访问很分散,可以考虑将本参数设置为true# if disk read / write separated
##  false for mixed read and write
##  true for separated read and write
# default value is true
# since V2.00
disk_rw_separated = true
# V2.0引入本参数。磁盘IO读写是否分离,缺省是分离的。# disk reader thread count per store base path
# for mixed read / write, this parameter can be 0
# default value is 1
# since V2.00
disk_reader_threads = 1
# V2.0引入本参数。针对单个存储路径的读线程数,缺省值为1。
# 读写分离时,系统中的读线程数 = disk_reader_threads * store_path_count
# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count# disk writer thread count per store base path
# for mixed read / write, this parameter can be 0
# default value is 1
# since V2.00
disk_writer_threads = 1
# V2.0引入本参数。针对单个存储路径的写线程数,缺省值为1。
# 读写分离时,系统中的写线程数 = disk_writer_threads * store_path_count
# 读写混合时,系统中的读写线程数 = (disk_reader_threads + disk_writer_threads) * store_path_count# when no entry to sync, try read binlog again after X milliseconds
# 0 for try again immediately (not need to wait)
sync_wait_msec=200
# 同步文件时,如果从binlog中没有读到要同步的文件,休眠N毫秒后重新读取。0表示不休眠,立即再次尝试读取。
# 出于CPU消耗考虑,不建议设置为0。如何希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为10ms# after sync a file, usleep milliseconds
# 0 for sync successively (never call usleep)
sync_interval=0
# 同步上一个文件后,再同步下一个文件的时间间隔,单位为毫秒,0表示不休眠,直接同步下一个文件。 # sync start time of a day, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
sync_start_time=00:00# sync end time of a day, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
sync_end_time=23:59
# 上面二个一起解释。允许系统同步的时间段 (默认是全天) 。一般用于避免高峰同步产生一些问题而设定,相信sa都会明白# write to the mark file after sync N files
# default value is 500
write_mark_file_freq=500
# 同步完N个文件后,把storage的mark文件同步到磁盘
# 注:如果mark文件内容没有变化,则不会同步# path(disk or mount point) count, default value is 1
store_path_count=1
# 存放文件时storage server支持多个路径(例如磁盘)。这里配置存放文件的基路径数目,通常只配一个目录。# store_path#, based 0, if store_path0 not exists, it's value is base_path
# the paths must be exist
store_path0=/home/yuqing/fastdfs
#store_path1=/home/yuqing/fastdfs2
# 逐一配置store_path个路径,索引号基于0。注意配置方法后面有0,1,2 ......,需要配置0到store_path - 1。
# 如果不配置base_path0,那边它就和base_path对应的路径一样。# subdir_count  * subdir_count directories will be auto created under each 
# store_path (disk), value can be 1 to 256, default value is 256
subdir_count_per_path=256
# FastDFS存储文件时,采用了两级目录。这里配置存放文件的目录个数 (系统的存储机制,大家看看文件存储的目录就知道了)
# 如果本参数只为N(如:256),那么storage server在初次运行时,会自动创建 N * N 个存放文件的子目录。# tracker_server can ocur more than once, and tracker_server format is
#  "host:port", host can be hostname or ip address
tracker_server=10.62.164.84:22122
tracker_server=10.62.245.170:22122
# tracker_server 的列表 要写端口的哦 (再次提醒是主动连接tracker_server )
# 有多个tracker server时,每个tracker server写一行#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info
# 日志级别不多说#unix group name to run this program, 
#not set (empty) means run by the group of current user
run_by_group=
# 同上文了#unix username to run this program,
#not set (empty) means run by current user
run_by_user=
# 同上文了 (提醒注意权限 如果和 webserver不搭 可以会产生错误 哦)# allow_hosts can ocur more than once, host can be hostname or ip address,
# "*" means match all ip addresses, can use range like this: 10.0.1.[1-15,20] or
# host[01-08,20-25].domain.com, for example:
# allow_hosts=10.0.1.[1-15,20]
# allow_hosts=host[01-08,20-25].domain.com
allow_hosts=*
# 允许连接本storage server的IP地址列表 (不包括自带HTTP服务的所有连接)
# 可以配置多行,每行都会起作用# the mode of the files distributed to the data path 
# 0: round robin(default)
# 1: random, distributted by hash code
file_distribute_path_mode=0
#  文件在data目录下分散存储策略。
# 0: 轮流存放,在一个目录下存储设置的文件数后(参数file_distribute_rotate_count中设置文件数),使用下一个目录进行存储。
# 1: 随机存储,根据文件名对应的hash code来分散存储。# valid when file_distribute_to_path is set to 0 (round robin), 
# when the written file count reaches this number, then rotate to next path
# default value is 100
file_distribute_rotate_count=100   
# 当上面的参数file_distribute_path_mode配置为0(轮流存放方式)时,本参数有效。
# 当一个目录下的文件存放的文件数达到本参数值时,后续上传的文件存储到下一个目录中。# call fsync to disk when write big file
# 0: never call fsync
# other: call fsync when written bytes >= this bytes
# default value is 0 (never call fsync)
fsync_after_written_bytes=0
# 当写入大文件时,每写入N个字节,调用一次系统函数fsync将内容强行同步到硬盘。0表示从不调用fsync  # sync log buff to disk every interval seconds
# default value is 10 seconds
sync_log_buff_interval=10
# 同步或刷新日志信息到硬盘的时间间隔,单位为秒
# 注意:storage server 的日志信息不是时时写硬盘的,而是先写内存。# sync binlog buff / cache to disk every interval seconds
# this parameter is valid when write_to_binlog set to 1
# default value is 60 seconds
sync_binlog_buff_interval=60
# 同步binglog(更新操作日志)到硬盘的时间间隔,单位为秒
# 本参数会影响新上传文件同步延迟时间# sync storage stat info to disk every interval seconds
# default value is 300 seconds
sync_stat_file_interval=300
# 把storage的stat文件同步到磁盘的时间间隔,单位为秒。
# 注:如果stat文件内容没有变化,不会进行同步# thread stack size, should >= 512KB
# default value is 512KB
thread_stack_size=512KB
# 线程栈的大小。FastDFS server端采用了线程方式。
# 对于V1.x,storage server线程栈不应小于512KB;对于V2.0,线程栈大于等于128KB即可。
# 线程栈越大,一个线程占用的系统资源就越多。
# 对于V1.x,如果要启动更多的线程(max_connections),可以适当降低本参数值。# the priority as a source server for uploading file.
# the lower this value, the higher its uploading priority.
# default value is 10
upload_priority=10
#  本storage server作为源服务器,上传文件的优先级,可以为负数。值越小,优先级越高。这里就和 tracker.conf 中store_server= 2时的配置相对应了 # if check file duplicate, when set to true, use FastDHT to store file indexes
# 1 or yes: need check
# 0 or no: do not check
# default value is 0
check_file_duplicate=0
# 是否检测上传文件已经存在。如果已经存在,则不存在文件内容,建立一个符号链接以节省磁盘空间。 
# 这个应用要配合FastDHT 使用,所以打开前要先安装FastDHT 
# 1或yes 是检测,0或no 是不检测# file signature method for check file duplicate
## hash: four 32 bits hash code
## md5: MD5 signature
# default value is hash
# since V4.01
file_signature_method=hash
# 文件去重时,文件内容的签名方式:
## hash: 4个hash code
## md5:MD5# namespace for storing file indexes (key-value pairs)
# this item must be set when check_file_duplicate is true / on
key_namespace=FastDFS
# 当上个参数设定为1 或 yes时 (true/on也是可以的) , 在FastDHT中的命名空间。# set keep_alive to 1 to enable persistent connection with FastDHT servers
# default value is 0 (short connection)
keep_alive=0
# 与FastDHT servers 的连接方式 (是否为持久连接) ,默认是0(短连接方式)。可以考虑使用长连接,这要看FastDHT server的连接数是否够用。# 下面是关于FastDHT servers 的设定 需要对FastDHT servers 有所了解,这里只说字面意思了
# you can use "#include filename" (not include double quotes) directive to 
# load FastDHT server list, when the filename is a relative path such as 
# pure filename, the base path is the base path of current/this config file.
# must set FastDHT server list when check_file_duplicate is true / on
# please see INSTALL of FastDHT for detail
##include /home/yuqing/fastdht/conf/fdht_servers.conf
# 可以通过 #include filename 方式来加载 FastDHT servers  的配置,装上FastDHT就知道该如何配置啦。
# 同样要求 check_file_duplicate=1 时才有用,不然系统会忽略
# fdht_servers.conf 记载的是 FastDHT servers 列表 # if log to access log
# default value is false
# since V4.00
use_access_log = false
# 是否将文件操作记录到access log# if rotate the access log every day
# default value is false
# since V4.00
rotate_access_log = false
# 是否定期轮转access log,目前仅支持一天轮转一次# rotate access log time base, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
# default value is 00:00
# since V4.00
access_log_rotate_time=00:00
# access log定期轮转的时间点,只有当rotate_access_log设置为true时有效# if rotate the error log every day
# default value is false
# since V4.02
rotate_error_log = false
# 是否定期轮转error log,目前仅支持一天轮转一次# rotate error log time base, time format: Hour:Minute
# Hour from 0 to 23, Minute from 0 to 59
# default value is 00:00
# since V4.02
error_log_rotate_time=00:00
# error log定期轮转的时间点,只有当rotate_error_log设置为true时有效# rotate access log when the log file exceeds this size
# 0 means never rotates log file by log file size
# default value is 0
# since V4.02
rotate_access_log_size = 0
# access log按文件大小轮转
# 设置为0表示不按文件大小轮转,否则当access log达到该大小,就会轮转到新文件中# rotate error log when the log file exceeds this size
# 0 means never rotates log file by log file size
# default value is 0
# since V4.02
rotate_error_log_size = 0
# error log按文件大小轮转
# 设置为0表示不按文件大小轮转,否则当error log达到该大小,就会轮转到新文件中# if skip the invalid record when sync file
# default value is false
# since V4.02
file_sync_skip_invalid_record=false
# 文件同步的时候,是否忽略无效的binlog记录下面是http的配置了。如果系统较大,这个服务有可能支持不了,可以自行换一个webserver,我喜欢lighttpd,当然ng也很好了。具体不说明了。相应这一块的说明大家都懂,不明白见上文。
#HTTP settings
http.disabled=false# the port of the web server on this storage server
http.server_port=8888http.trunk_size=256KB
# http.trunk_size表示读取文件内容的buffer大小(一次读取的文件内容大小),也就是回复给HTTP client的块大小。# use the ip address of this storage server if domain_name is empty,
# else this domain name will ocur in the url redirected by the tracker server
http.domain_name=
# storage server上web server域名,通常仅针对单独部署的web server。这样URL中就可以通过域名方式来访问storage server上的文件了,
# 这个参数为空就是IP地址的方式。

7.4 storage服务器的目录结构和文件

完成storage节点的配置并启动storage服务后,在base_path目录下会生成storage节点运行所必须的目录结构和文件,目录和文件如下:
KaTeX parse error: Expected group after '_' at position 48: …base_path 路径 |_̲_data | |__.da…{ip_addr}_${port}.mark:存放同步的完成情况
| |
| |__一级目录:256 个存放数据文件的目录,如果 store_path 不配置,文件默认存放到此处。
| |__二级目录:256 个存放数据文件的目录
|__logs
|__storaged.log:storage server 日志文件
|__storage_access.log:访问日志文件,如果开启了访问日志才会存在该日志文件,默认不存在。

data目录中存放了storage节点运行时所必须的一些文件,包括 storage 节点的初始化信息、运行状态信息、storage节点间的同步信息等。

.data_init_flag 文件中记录了 storage 节点的初始化信息
storage_join_time:存储节点加入的时间
sync_old_done:是否成功获取到源机器 IP,1 表示成功获得。
sync_src_server:源主机的 IP 地址。
sync_until_timestamp:源主机负责的旧数据截止时间。
last_ip_addr:最后使用的 IP 地址
last_server_port:最后使用的服务器端口
last_http_port:最后使用的 http 服务端口
current_trunk_file_id:当前合并文件的 ID,默认 0
trunk_last_compress_time:合并文件最后的压缩时间,默认 0
其中 sync_old_done、sync_src_server、sync_until_timestamp 三个参数和源同步相关

storage_stat.dat记录了storage服务的状态信息,不需要手动更改,了解信息含义即可
total_upload_count:上传文件总个数
success_upload_count:成功上传的个数
total_append_count:总上传追加个数
success_append_count:成功上传追加个数
total_modify_count:总共修改文件的个数
success_modify_count:成功修改文件的个数
total_truncate_count:总共合并文件的个数
success_truncate_count:成功合并文件的个数
total_download_count:总共下载文件的个数
success_download_count:成功下载文件的个数
total_set_meta_count:总共设置 metadata(元数据)的个数
success_set_meta_count:成功设置 metadata 的个数
total_delete_count:总共删除文件的个数
success_delete_count:成功删除文件的个数
total_get_meta_count:总共获取 metdata 的次数
success_get_meta_count:成功获取 metdata 的次数
total_create_link_count:如果文件存在,创建连接个数,用连接来访问文件
success_create_link_count:如果文件存在,成功创建连接个数, 用连接来访问文件
total_delete_link_count:总共删除链接的次数
success_delete_link_count:成功删除连接的次数
total_upload_bytes:上传文件的总大小
success_upload_bytes:成功上传文件的大小
total_append_bytes:附加文件的总大小
success_append_bytes:成功附加文件大小
total_modify_bytes:修改文件的总大小
success_modify_bytes:成功修改文件的大小
total_download_bytes:下载文件的总大小
success_download_bytes:成功下载文件的大小
total_sync_in_bytes:同步同组下机器文件的总大小
success_sync_in_bytes:成功同步同组下机器文件的总大小
total_sync_out_bytes:本机器同步到同组别的机器文件大小
success_sync_out_bytes:本机器成功同步到同组别的机器文件大小
total_file_open_count:打开文件总数量(同步文件个数+上传次数+流量次数)
success_file_op
en_count:成功打开文件数量(同步文件个数+上传次数+流量次数)
total_file_read_count:读取文件总个数
success_file_read_count:成功读取文件个数
total_file_write_count:上传文件数,可能还有同步别的机器过来的文件数量
success_file_write_count:成功上传文件数,可能还有同步别的机器过来的文件数量
last_source_update:最后一次上传文件时间
last_sync_update:同步别的机器数据过来的时间

7.5 client配置文件

连接超时时间,针对socket套接字函数connect
# connect timeout in seconds
# default value is 30s
connect_timeout=30
# client的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败
# network timeout in seconds
# default value is 30s
network_timeout=60
# client的网络超时,单位为秒。发送或接收数据时,如果在超时时间后还不能发送或接收数据,则本次网络通信失败
# network timeout in seconds
# default value is 30s
network_timeout=60
# tracker_server 的列表 要写端口
# tracker_server can ocur more than once, and tracker_server format is
#  "host:port", host can be hostname or ip address
tracker_server=192.168.0.197:22122
# 日志的级别
#standard log level as syslog, case insensitive, value list:
### emerg for emergency
### alert
### crit for critical
### error
### warn for warning
### notice
### info
### debug
log_level=info
# 是否使用连接池
# if use connection pool
# default value is false
# since V4.05
use_connection_pool = false
# 如果一个连接的空闲时间超过这个值将会被自动关闭
# connections whose the idle time exceeds this time will be closed
# unit: second
# default value is 3600
# since V4.05
connection_pool_max_idle_time = 3600
# 是否从FastDFS的tracker server加载参数
# if load FastDFS parameters from tracker server
# since V4.05
# default value is false
load_fdfs_parameters_from_tracker=false
是否使用storage ID 代替IP,只有当load_fdfs_parameters_from_tracker为false时才有效
# if use storage ID instead of IP address
# same as tracker.conf
# valid only when load_fdfs_parameters_from_tracker is false
# default value is false
# since V4.05
use_storage_id = false
# 指定storage_ids的路径,可以使用绝对路径和相对路径,只有当load_fdfs_parameters_from_tracker为false时才有效
# specify storage ids filename, can use relative or absolute path
# same as tracker.conf
# valid only when load_fdfs_parameters_from_tracker is false
# since V4.05
storage_ids_filename = storage_ids.conf
#tracker server的http端口
#HTTP settings
http.tracker_server_port=8080
#use "#include" directive to include HTTP other settiongs
##include http.conf

八、FastDFS优化

8.1、Storage节点之间的同步速度

由于到每台机器的同步都是由单线程负责的,因此即使主机上有很多个磁盘也不能加快同步速度,因此单线程并不能最大化磁盘 IO,最大的速度也就是一个磁盘的速度。
对于重要文件,为了防止机器宕机或者坏磁盘的文件丢失,及时的同步备份是必须得。若同步太慢,还可能导致Tracker不能正确估计可用空间,而导致空间溢出。
由于 Linux 系统的文件缓存机制,若一个刚写入的文件马上读,那么很可能就命中在系统缓存上,此时读数据几乎不耗费时间,若不能命中缓存,从磁盘读,将耗费很长时间。因此写入速度,最好与同步速度相当,这样可以保证及时同步。若写入速度超过同步速度,从某个时刻开始,将会使得所有的读无法命中缓存,同步性能将大幅下滑。

影响storage同步速度的参数:
sync_binlog_buff_interval=10
同步 binglog(更新操作日志)到硬盘的时间间隔,单位为秒,默认值 60 秒。本参数会影响新

上传文件同步延迟时间。
sync_wait_msec=50
同步等待时间,单位毫秒。同步文件时,如果从 binlog 中没有读到要同步的文件,休眠 N 毫秒后重新读取。0 表示不休眠,立即再次尝试读取。出于 CPU 消耗考虑,不建议设置为 0。如果希望同步尽可能快一些,可以将本参数设置得小一些,比如设置为 10ms。

8.2、磁盘读写速度

FastDFS推荐是多个group,每个group包括多个storage,每个storage中单独挂载一个磁盘或多个磁盘(注意是单独的磁盘,不是一个磁盘的多个分区),这样可以将文件系统的 I/O 分散到多个磁盘,适当提升服务器的I/O性能。

8.3、提升storage性能参数

connection_pool_max_idle_time = 3600
连接池中连接的最大空闲时间,单位秒,默认值 3600,可以适当调低连接的最大空闲时间,提升连接的利用率。

max_connections=256
服务器支持的最大连接数,最大连接数越大,能同时处理的任务量越大,但是消耗的资源也越多,可以根据系统的资源适当调整此值来获取最佳性能。

buff_size = 256KB
设置队列结点的 buffer 大小。工作队列消耗的内存大小 = buff_size * max_connections。设置得大一些,系统整体性能会有所提升。对于 32 位系统,请注意使用到的内存不要超过 3GB。

work_threads=4
工作线程数,通常设置为CPU数,配置的是NIO线程,也就是网络线程数,此值越大,服务器处理能力越强,但是不能超过 CPU 数据,超过后性能无提升。

thread_stack_size=512KB
线程栈的大小。FastDFS server 端采用了线程方式。 线程栈越大,一个线程占用的系统资源就越多。storage server 线程栈不应不小于 512KB,可以适当调大。

九、监控

fastdfs集群监控信息
fdfs_monitor /etc/fdfs/client.conf######tracker server情况部分:
server_count=2, server_index=1  #server_count=2总共有两台tracker,server_index=1表示这台server的编号是1,说明前面还有一台tracker,第一台的编号是从0开始的。tracker server is 192.168.1.104:22122  #这台tracker的IP地址是192.168.1.104端口是22122
#######组(卷)的情况部分:
group name = group2                 #所在卷组的名字,这里是group2
disk total space = 102350 MB        #这个组的空间总大小 (以组中存储空间最小的节点为准),我是两块50G的盘,所以这里是100G。
disk free space = 102205 MB         #剩余空间大小,基本也就是单个服务器所有挂载磁盘加起来的剩余空间
trunk free space = 0 MB             #小文件合并,0MB就表示没有做小文件合并
storage server count = 2            #表示这个组一共由2台storage节点组成
active server count = 1             #存活的storage节点这里是1表示只有一台处于存活状态。
storage server port = 23000         #storage的端口
storage HTTP port = 8888            #这个没有意义因为我们编译安装的时候没加参数,storage就没开启http服务
store path count = 2                #这里是2表示有两个存储路径,也就是我们挂载了两块盘,线上一般是11到12
subdir count per path = 256         #每个目录下面有256个目录
current write server index = 0      #没做合并
current trunk file id = 0           #没做合并
#######storage(存储节点)的情况部分:Storage 1:                       #第一个存储节点id = 192.168.1.105           #id,这里Id是用的默认用IP表示ip_addr = 192.168.1.105  ACTIVE      #此节点的IP地址,这里才是IP地址哦。主要是后面的ACTIVE这个表示该节点正常是存活状态http domain = version = 5.10                      #程序的版本号join time = 2017-07-06 14:08:30     #该节点加入组的时间up time = 2017-07-06 14:09:01       #该节点的启动时间total storage = 102350 MB           #该节点的存储空间总大小free storage = 102205 MB            #该节点的存储空间剩余情况upload priority = 10                #上传优先级store_path_count = 2                #有几个存储路径,也就是挂了几块存储盘          subdir_count_per_path = 256         #每级目录创建多少子目录storage_port = 23000                #storage服务的端口号storage_http_port = 8888            #Http端口号没用current_write_path = 0              #合并没用source storage id =                 #这里为空说明这个节点是源storage负责给别人分发if_trunk_server = 0connection.alloc_count = 256        connection.current_count = 1connection.max_count = 3total_upload_count = 16             #上传的总次数,如线上:3100139success_upload_count = 16           #上传文件的总次数,如线上:3100139total_append_count = 0success_append_count = 0total_modify_count = 0success_modify_count = 0total_truncate_count = 0success_truncate_count = 0total_set_meta_count = 10           #更改meta data次数success_set_meta_count = 10         #成功更改meta data次数total_delete_count = 0              #删除文件的总次数,会有数值,如47但是一般不多success_delete_count = 0            #成功删除文件的总次数total_download_count = 0            #下载文件总次数,如:5282446success_download_count = 0                      #成功下载文件总次数total_get_meta_count = 0                        #获取meta data次数,一般为0success_get_meta_count = 0                      #成功获取meta data次数total_create_link_count = 0                     #一般为0                success_create_link_count = 0total_delete_link_count = 0success_delete_link_count = 0total_upload_bytes = 44005340                   #总共上传了多少字节的文件,一般比使用量/2,稍小一点,一般文件上传了都会再产生一个从文件嘛。success_upload_bytes = 44005340total_append_bytes = 0                          #附加操作使用了多少字节,一般为0或者很少,很少附加,因为一般都是存的图片什么的success_append_bytes = 0total_modify_bytes = 0                          #修改的字节数,一般为0success_modify_bytes = 0stotal_download_bytes = 0                       #下载的总字节,因为没有下载所以这里是0,但是一般这里很大的,如:4006784730483就表示下载量是4T左右。success_download_bytes = 0total_sync_in_bytes = 0                         success_sync_in_bytes = 0total_sync_out_bytes = 0success_sync_out_bytes = 0total_file_open_count = 16success_file_open_count = 16total_file_read_count = 0success_file_read_count = 0total_file_write_count = 34success_file_write_count = 34last_heart_beat_time = 2017-07-07 10:53:05                      #最后存活检测时间last_source_update = 2017-07-06 17:58:52                        #最后源更新时间last_sync_update = 1970-01-01 08:00:00                          #最后同步更新时间,这就代表没同步,如果同步过或者正常情况下,这个值会比上面的值晚1到几秒而已。last_synced_timestamp = 1970-01-01 08:00:00 Storage 2:id = 192.168.1.106ip_addr = 192.168.1.106  OFFLINE              #检测为离线状态http domain = version = 5.10join time = 2017-07-06 14:08:50up time = 2017-07-06 14:08:50total storage = 102350 MBfree storage = 102246 MBupload priority = 10store_path_count = 2subdir_count_per_path = 256storage_port = 23000storage_http_port = 8888current_write_path = 0source storage id = 192.168.1.105  #获得了源storage idif_trunk_server = 0connection.alloc_count = 256connection.current_count = 0connection.max_count = 0total_upload_count = 0success_upload_count = 0total_append_count = 0success_append_count = 0total_modify_count = 0success_modify_count = 0total_truncate_count = 0success_truncate_count = 0total_set_meta_count = 0success_set_meta_count = 0total_delete_count = 0success_delete_count = 0total_download_count = 0success_download_count = 0total_get_meta_count = 0success_get_meta_count = 0total_create_link_count = 0success_create_link_count = 0total_delete_link_count = 0success_delete_link_count = 0total_upload_bytes = 0success_upload_bytes = 0total_append_bytes = 0success_append_bytes = 0total_modify_bytes = 0success_modify_bytes = 0stotal_download_bytes = 0success_download_bytes = 0total_sync_in_bytes = 0success_sync_in_bytes = 0total_sync_out_bytes = 0success_sync_out_bytes = 0total_file_open_count = 0success_file_open_count = 0total_file_read_count = 0success_file_read_count = 0total_file_write_count = 0success_file_write_count = 0last_heart_beat_time = 2017-07-07 10:52:56last_source_update = 1970-01-01 08:00:00last_sync_update = 1970-01-01 08:00:00last_synced_timestamp = 1970-01-01 08:00:00 (never synced) #看最后的()里面的内容,从没有同步过

fastdfs-export监控
docker run -it --rm
-p 9018:9018
-e TRACKER_SERVER=“192.168.10.81:22122;192.168.10.82:22122”
whithen/fastdfs-exporter

curl localhost:9018/metrics
在这里插入图片描述

十、常见故障与排查

10.1、storage服务启动时,一直卡住启动不了

启动storage服务,storage将连接tracker服务,如果连不上,将一直重试。直到连接成功,启动才算真正完成,所以需要首先确保 tracker 服务启动。如果启动过程中,执行命令卡住,可能是由于某些问题导致的启动失败,可以使用命令 tailf
b a s e p a t h / l o g s / s t o r a g e d . l o g 跟踪日志信息, base_path/logs/storaged.log 跟踪日志信息, basepath/logs/storaged.log跟踪日志信息,base_path 是在storage.conf中配置的存储跟目录。
注:在杀tracker和storage服务器进程时,请使用 killall fdfs_trackerd/killall fdfs_storaged 命令,千万不要使用kill -9命令强杀,否则可能会导致binlog数据丢失的问题。

10.2、上传文件失败,返回错误码28

返回错误码 28,表示磁盘空间不足。注意FastDFS中有预留空间的概念,在tracker.conf 中设置,
配置项为:reserved_storage_space。可以酌情设置reserved_storage_space这个参数,比如可以设置为磁盘总空间的 15%左右。

10.3、日志中出现malloc task buff failed字样的错误

出现此类信息表示已经达到最大连接数。server端支持的最大连接数可以通过 max_connections这个参数来设置。
出现这样的问题,需要排查一下是否客户端使用不当导致的,比如客户端没有及时关闭无用的连接。

10.4、FastDFS的文件ID可以反解出哪些字段

文件ID中除了包含group name和存储路径外,文件名中可以反解出如下几个字段:

  1. 文件创建时间(unix时间戳,32位整数)
  2. 文件大小
  3. 上传到的源storage server IP地址(32位整数)
  4. 文件crc32校验码
  5. 随机数(这个字段用来避免文件重名)

10.5、FastDFS整合nginx报错

查看nginx-error.log,发现一直报错:ERROR - file: …/common/fdfs_http_shared.c, line: 148, param “http.mime_types_filename” not exist or is empty
解决:修改mod_fastdfs.conf,增加#include http.conf,然后重启storage即可。

10.6、FastDFS整合nginx后浏览器400错误

ERROR - file: …/common/fdfs_global.c, line: 52, the format of filename “group1/M00/00/00/rB-HpV6VFaCAZ4JLAABHwY-HwJ0293_big.jpg” is invalid
解决:修改 mod_fastdfs.conf将 url_have_group_name=false 改为 url_have_group_name=true 即可

10.7、安装完fastdfs后,启动fastdfs的storage报错

fdfs_storaged: symbol lookup error: fdfs_storaged: undefined symbol: g_current_time
解决方法:重新安装libfastcommon

10.8、FastDFS故障 Idle too long, status change to offline!

tracker有个启动参数是g_connection_pool_max_idle_time=3600s。应该是指,tracker会检测storage是否在线,如果超过3600s没检测到storage则会将storage踢下线,类似于nginx的upstream。但问题是,网络恢复正常后,tracker却没有再次将storage的状态改变
解决方法:重启storage后解决问题;同时做好服务监控

10.9、启动的时候提示No such file or directory

ERROR - file: tracker_func.c, line: 160, “/home/yuqing/fastdfs” can’t be accessed, error info: No such file or directory

解决方法:看一下/home/yunqing/fastdfs有没跟你的tracker.conf或者storage.conf里的路径一致,没有的话修改一下,或者创建路径底下的文件即可。

相关文章:

深度解析FastDFS:构建高效分布式文件存储的实战指南(下)

接上篇&#xff1a;《深度解析FastDFS&#xff1a;构建高效分布式文件存储的实战指南&#xff08;上&#xff09;》 传送门: link 文章目录 六、常用命令七、FastDFS配置详解7.1 tracker配置文件7.2 tracker目录及文件结构7.3 storage配置文件7.4 storage服务器的目录结构和文件…...

Python学习29天

二分查找 # 定义函数冒泡排序法从大到小排列 def bbble_sort(list):# i控制排序次数for i in range(len(list) - 1):# j控制每次排序比较次数for j in range(len(list) - 1 - i):if list[j] < list[j 1]:list[j], list[j 1] list[j 1], list[j] # 定义二分查找函数 def…...

Soul App创始人张璐团队携多模态大模型参加GITEX GLOBAL,展现未来社交趋势

作为中东地区规模最大、最成功的计算机通讯及消费性电子产品展,GITEX GLOBAL一直颇受全球关注,于今年迎来了第44届盛会。自诞生以来,GITEX GLOBAL始终聚焦技术驱动的创新,吸引了许多科技巨头、创新企业及投资者的参与。Soul App作为中国较早将AI技术引入社交的企业,今年首次亮相…...

简单工厂模式、方法工厂模式

简单工厂模式&#xff08;Simple Factory Pattern&#xff09; 简单工厂模式的核心思想是通过一个工厂类&#xff0c;根据提供的参数来决定创建哪一个具体的产品类实例。 这个模式通常用于产品种类较少&#xff0c;且不经常变化的场景。 interface Product {void create(); }…...

【面试】前端vue项目架构详细描述

基于您提供的技术栈和要求&#xff0c;以下是前端项目的架构设计描述&#xff1a; 项目结构 • 入口文件&#xff1a; main.js 作为项目的入口文件&#xff0c;负责初始化 Vue 实例&#xff0c;并挂载到 DOM 上。 • 组件目录&#xff1a; components 目录包含项目的所有 Vue 组…...

BERT的中文问答系统32

我们需要在现有的代码基础上增加网络搜索功能&#xff0c;并在大模型无法提供满意答案时调用网络搜索。以下是完整的代码和文件结构说明&#xff0c;我们创建一个完整的项目结构&#xff0c;包括多个文件和目录。这个项目将包含以下部分&#xff1a; 主文件 (main.py)&#xf…...

大数据-226 离线数仓 - Flume 优化配置 自定义拦截器 拦截原理 拦截器实现 Java

点一下关注吧&#xff01;&#xff01;&#xff01;非常感谢&#xff01;&#xff01;持续更新&#xff01;&#xff01;&#xff01; Java篇开始了&#xff01; 目前开始更新 MyBatis&#xff0c;一起深入浅出&#xff01; 目前已经更新到了&#xff1a; Hadoop&#xff0…...

idea maven 重新构建索引

当设置maven仓库为离线模式的时候&#xff0c;会出现一些问题。 比如本地的仓库被各种方式手动更新之后&#xff0c; 举例&#xff1a;我需要一个spring的包&#xff0c;在pmo文件中写好了引入包的代码 但是由于是离线模式没有办法触发自动下载&#xff0c;那么这个时候我可以…...

C#桌面应用制作计算器

C#桌面应用制作简易计算器&#xff0c;可实现数字之间的加减乘除、AC按键清屏、Del按键清除末尾数字、/-按键取数字相反数、%按键使数字缩小100倍、按键显示运算结果等...... 页面实现效果 功能实现 布局 计算器主体使用Panel容器&#xff0c;然后将button控件排列放置Pane…...

细说STM32单片机DMA中断收发RTC实时时间并改善其鲁棒性的方法

目录 一、DMA基础知识 1、DMA简介 (1)DMA控制器 (2)DMA流 (3)DMA请求 (4)仲裁器 (5)DMA传输属性 2、源地址和目标地址 3、DMA传输模式 4、传输数据量的大小 5、数据宽度 6、地址指针递增 7、DMA工作模式 8、DMA流的优先级别 9、FIFO或直接模式 10、单次传输或突…...

【Unity/Animator动画系统】多层动画状态机实现角色的基本移动

文章目录 前言实现顶层地面状态四方向混合树计算动画所需参数 空中状态分层动画 前言 最近打算做个Rougelike RPG 塔科夫 混搭风格的冒险游戏。暂且就当是一个有随机元素&#xff0c;有基地&#xff0c;死亡会掉落物品的近战塔科夫罢。 花了三天时间&#xff0c;整合了Mixa…...

每日算法一练:剑指offer——栈与队列篇(1)

1.图书整理II 读者来到图书馆排队借还书&#xff0c;图书管理员使用两个书车来完成整理借还书的任务。书车中的书从下往上叠加存放&#xff0c;图书管理员每次只能拿取书车顶部的书。排队的读者会有两种操作&#xff1a; push(bookID)&#xff1a;把借阅的书籍还到图书馆。pop…...

【Java】ArrayList与LinkedList详解!!!

目录 一&#x1f31e;、List 1&#x1f345;.什么是List&#xff1f; 2&#x1f345;.List中的常用方法 二&#x1f31e;、ArrayList 1&#x1f34d;.什么是ArrayList? 2&#x1f34d;.ArrayList的实例化 3&#x1f34d;.ArrayList的使用 4&#x1f34d;.ArrayList的遍…...

怎么用VIM查看UVM源码

利用ctags工具可以建立源码的索引表&#xff0c;在使用VIM或其他文本编辑器时&#xff0c;就可以跳转查看所调用的UVM或VIP的funtcion/task/class等源码了。 首先需要确认ctags安装&#xff0c;一般安装VIM后都有&#xff0c;如果没有可以手动安装。在VIM中可以输入:help ctag…...

数据结构C语言描述3(图文结合)--双链表、循环链表、约瑟夫环问题

前言 这个专栏将会用纯C实现常用的数据结构和简单的算法&#xff1b;有C基础即可跟着学习&#xff0c;代码均可运行&#xff1b;准备考研的也可跟着写&#xff0c;个人感觉&#xff0c;如果时间充裕&#xff0c;手写一遍比看书、刷题管用很多&#xff0c;这也是本人采用纯C语言…...

第二十五章 TCP 客户端 服务器通信 - TCP 设备的 READ 命令

文章目录 第二十五章 TCP 客户端 服务器通信 - TCP 设备的 READ 命令TCP 设备的 READ 命令READ 修改 $ZA 和 $ZB$ZA 和 READ 命令 第二十五章 TCP 客户端 服务器通信 - TCP 设备的 READ 命令 TCP 设备的 READ 命令 从服务器或客户端发出 READ 命令以读取客户端或服务器设置的…...

【C++】哈希表的实现详解

哈希表的实现详解 一、哈希常识1.1、哈希概念1.2、哈希冲突1.3、哈希函数&#xff08;直接定执 除留余数&#xff09;1.4、哈希冲突解决闭散列&#xff08;线性探测 二次探测&#xff09;开散列 二、闭散列哈希表的模拟实现2.1、框架2.2、哈希节点状态的类2.3、哈希表的扩容2…...

高阶C语言之五:(数据)文件

目录 文件名 文件类型 文件指针 文件的打开和关闭 文件打开模式 文件操作函数&#xff08;顺序&#xff09; 0、“流” 1、字符输出函数fputc 2、字符输入函数fgetc 3、字符串输出函数fputs 4、 字符串输入函数fgets 5、格式化输入函数fscanf 6、格式化输出函数fpr…...

服务器上部署并启动 Go 语言框架 **GoZero** 的项目

要在服务器上部署并启动 Go 语言框架 **GoZero** 的项目&#xff0c;下面是一步步的操作指南&#xff1a; ### 1. 安装 Go 语言环境 首先&#xff0c;确保你的服务器上已安装 Go 语言。如果还没有安装&#xff0c;可以通过以下步骤进行安装&#xff1a; #### 1.1 安装 Go 语…...

【Java SE 】继承 与 多态 详解

&#x1f525;博客主页&#x1f525;&#xff1a;【 坊钰_CSDN博客 】 欢迎各位点赞&#x1f44d;评论✍收藏⭐ 目录 1. 继承 1.1 继承的原因 1.2 继承的概念 1.3 继承的语法 2. 子类访问父类 2.1 子类访问父类成员变量 2.1.1 子类与父类不存在同名成员变量 2.1.2 子类…...

【大语言模型】ACL2024论文-16 基于地图制图的罗马尼亚自然语言推理语料库的新型课程学习方法

【大语言模型】ACL2024论文-16 基于地图制图的罗马尼亚自然语言推理语料库的新型课程学习方法 目录 文章目录 【大语言模型】ACL2024论文-16 基于地图制图的罗马尼亚自然语言推理语料库的新型课程学习方法目录摘要&#xff1a;研究背景&#xff1a;问题与挑战&#xff1a;如何解…...

秋招大概到此结束了

1、背景 学院本&#xff0c;软工&#xff0c;秋招只有同程&#xff0c;快手和网易面试&#xff0c;后两家kpi&#xff08;因为面试就很水&#xff09;&#xff0c;秋招情况&#xff1a;哈啰&#xff08;实习转正ing&#xff09;&#xff0c;同程测开offer。 2、走测开的原因 很…...

华为OD机试真题---字符串化繁为简

华为OD机试真题中的“字符串化繁为简”题目是一个涉及字符串处理和等效关系传递的问题。以下是对该题目的详细解析&#xff1a; 一、题目描述 给定一个输入字符串&#xff0c;字符串只可能由英文字母&#xff08;a~z、A~Z&#xff09;和左右小括号&#xff08;(、)&#xff0…...

概念解读|K8s/容器云/裸金属/云原生...这些都有什么区别?

随着容器技术的日渐成熟&#xff0c;不少企业用户都对应用系统开展了容器化改造。而在容器基础架构层面&#xff0c;很多运维人员都更熟悉虚拟化环境&#xff0c;对“容器圈”的各种概念容易混淆&#xff1a;容器就是 Kubernetes 吗&#xff1f;容器云又是什么&#xff1f;容器…...

初识Arkts

创建对象&#xff1a; 类&#xff1a; 类声明引入一个新类型&#xff0c;并定义其字段、方法和构造函数。 定义类后&#xff0c;可以使用关键字new创建实例 可以使用对象字面量创建实例 在以下示例中&#xff0c;定义了Person类&#xff0c;该类具有字段name和surname、构造函…...

基本的SELECT语句

1.SQL概述 SQL&#xff08;Structured Query Language&#xff09;是一种用于管理和操作关系数据库的编程语言。它是一种标准化的语言&#xff0c;用于执行各种数据库操作&#xff0c;包括创建、查询、插入、更新和删除数据等。 SQL语言具有简单、易学、高效的特点&#xff0c;…...

51c自动驾驶~合集30

我自己的原文哦~ https://blog.51cto.com/whaosoft/12086789 #跨越微小陷阱&#xff0c;行动更加稳健 目前四足机器人的全球市场上&#xff0c;市场份额最大的是哪个国家的企业&#xff1f;A.美国 B.中国 C.其他 波士顿动力四足机器人 云深处 绝影X30 四足机器人 &#x1f…...

Python Tutor网站调试利器

概述 本文主要是推荐一个网站:Python Tutor. 网站首页写道: Online Compiler, Visual Debugger, and AI Tutor for Python, Java, C, C++, and JavaScript Python Tutor helps you do programming homework assignments in Python, Java, C, C++, and JavaScript. It contai…...

h5小游戏实现获取本机图片

h5小游戏实现获取本机图片 本文使用cocos引擎 1.1 需求 用户通过文件选择框选择图片。将图片内容转换为Cocos Creator的纹理 (cc.Texture2D),将纹理设置到 cc.SpriteFrame 并显示到节点中。 1.2 实现步骤 创建文件输入框用于获取文件 let input document.createElement(&quo…...

前端 javascript a++和++a的区别

前端 javascript a和a的区别 a 是先执行表达式后再自增&#xff0c;执行表达式时使用的是a的原值。a是先自增再执行表达示&#xff0c;执行表达式时使用的是自增后的a。 var a0 console.log(a); // 输出0 console.log(a); // 输出1var a0 console.log(a); // 输出1 console.l…...

网站的建设需要虚拟机吗/龙斗seo博客

学习资料&#xff1a; 力扣 史上最棒的正则表达测试网站。 regex101: build, test, and debug regex 特殊字符&#xff1a; 限定字符&#xff1a; 定位符&#xff0c;用的少。...

交流建设网站/免费培训机构管理系统

感谢邀请。看了你的代码&#xff0c;很显然你的变量注册参数写反了。给几点建议&#xff1a;使用原生PHP作为模板语言&#xff0c;一方面可以获得最好的性能&#xff0c;另一方面没有学习模板语法的成本。虽然TP的大写字母函数有点狗血&#xff0c;但还是推荐使用大字母方法实例…...

如何建立网站建设/网站建设网络营销

找binary tree中两个node第一个公共祖先。注意不一定是BST 想法&#xff1a;p&#xff0c;q都在左子树&#xff0c;就branch left。如果都在right&#xff0c;就branch right。如果不在same side&#xff0c;就返回first common ancestor所以主要是在left subtree和right subtr…...

网站制作 北京网站建设公司/网络运营推广是做什么的

导读&#xff1a; 前言 色彩斑斓的"马" 虽然利用插入代码功能可以很华丽的插入色彩斑斓的代码&#xff0c;但是就html&#xff08;Xhtml&#xff09;代码、js代码、css代码而言&#xff0c;我更喜欢想蓝色理想论坛中的那种&#xff1a;有个文本框&#xff0c;文本框里…...

成都奶茶加盟网站建设/免费推广的方式

编码成分子的信号传输(如激素、信息素)是人体用于确保细胞间通信的常用系统之一&#xff0c;在体外通过分子通信(MC)领域模拟了一种信息传输形式。然而&#xff0c;在实验室中复制MC仍然面临着许多挑战&#xff0c;例如MC中可以同时编码、传输和解码的化学载体数量的限制。该项…...

重庆快速网站建设/百度图片搜索图片识别

jQuery之事件移除 转载于 https://www.cnblogs.com/jiqing9006/archive/2012/09/12/2681323.html有时候事件执行完了&#xff0c;想取消事件的效果可以通过一定的办法来处理。比如bind()方法&#xff0c;可以通过unbind()方法来移除事件的效果。 比如下面的一个案例&#xff1…...