kafka-server-start.sh启动脚本
//首先判断命令后面是否有server.properties,没有的话,就会直接的退出
if [ $# -lt 1 ];
then
echo "USAGE: $0 [-daemon] server.properties [--override property=value]*"
exit 1
fi
//获取当前的文件夹
base_dir=$(dirname $0)
//判断KAFKA_LOG4J_OPTS为空的话,就将kafka自带的配置文件赋值给日志文件变量
//配置文件在当前目录的上一层目录的下面的config里面的log4j.properties
if [ "x$KAFKA_LOG4J_OPTS" = "x" ]; then
export KAFKA_LOG4J_OPTS="-Dlog4j.configuration=file:$base_dir/../config/log4j.properties"
fi
//如果KAFKA_HEAP_OPTS变量为空的话,就配置默认值,默认head的xms初始是1G,xmx最大为1G,设置相等是为了防止内存的抖动。
//"x$KAFKA_HEAP_OPTS" = "x" 其实就是判断$KAFKA_HEAP_OPTS是否为空的,加上x
//是因为如果直接的判断"$KAFKA_HEAP_OPTS" = "" 某些版本的bash可能会出现编译错误,这里是为了兼容不同的版本的。
if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
fi
EXTRA_ARGS=${EXTRA_ARGS-'-name kafkaServer -loggc'}
COMMAND=$1
case $COMMAND in
-daemon)
EXTRA_ARGS="-daemon "$EXTRA_ARGS
shift
;;
*)
;;
esac
//执行当前目录项目的kafka-run-class.sh脚本来运行kafka.Kafka类
//这里的$@和$*的含义是一样的,都是表示可以脚本后面的所有的参数
exec $base_dir/kafka-run-class.sh $EXTRA_ARGS kafka.Kafka "$@"
总的来说,kafka-server-start.sh做了四件事情
- 判断是否有server.proeprties文件
- 设置日志配置文件
- 设置head的xmx和xms
- 执行kafka.Kafka类
kafka-run-class.sh脚本
kafka-run-class.sh脚本我得版本是0.10.2.1,一共有259行,这里我只说最重要的。
# Which java to use
#判断当$JAVA_HOME为空的时候,默认在当前文件夹下面找java执行命令
#如果不为空的话,就JAVA变量赋值为"$JAVA_HOME/bin/java"
202 if [ -z "$JAVA_HOME" ]; then
203 JAVA="java"
204 else
205 JAVA="$JAVA_HOME/bin/java"
206 fi
#判断启动的模式这个是根据--daemon参数来决定的
# Launch mode
#如果是deamon模式的话,就是使用nohup & 后台运行的
#如果不是deamon模式的话,就是直接额执行exec命令,前台运行
#这里的$JAVA就是java执行命令,$@就是上面的kafka.Kafka类
255 if [ "x$DAEMON_MODE" = "xtrue" ]; then
256 nohup $JAVA $KAFKA_HEAP_OPTS $KAFKA_JVM_PERFORMANCE_OPTS $KAFKA_GC_LOG_OPTS $KAFKA_JMX_OPTS $KAF KA_LOG4J_OPTS -cp $CLASSPATH $KAFKA_OPTS "$@" > "$CONSOLE_OUTPUT_FILE" 2>&1 < /dev/null &
257 else
258 exec $JAVA $KAFKA_HEAP_OPTS $KAFKA_JVM_PERFORMANCE_OPTS $KAFKA_GC_LOG_OPTS $KAFKA_JMX_OPTS $KAFK A_LOG4J_OPTS -cp $CLASSPATH $KAFKA_OPTS "$@"
259 fi
总结
其实kafka-server-start.sh和kafka-run-class.sh是分工合作的,kafka-server-start.sh首先对命令做一个是否可以执行的判断,当判断通过,就可以执行kafka-run-class.sh,这里面是对程序执行的一些配置的封装,最终的命令就是执行kafka.Kafka这个类,他是kafka的入口类,要是想阅读源码的话,可以从这里开始。