1.Tomcat相关
启动Tomcat服务 /usr/local/tomcat/bin/catalina.sh start
实时查看Tomcat控制台
tail -f /usr/local/tomcat/logs/catalina.out
/usr/local/apache-tomcat-7.0.72/webapps更新程序版本
2.修改权限
cd /usr/local/bin
chmod 777 -R wangpansou
chmod 777 -R zhengli.sh
访问命令PHP
执行整理/usr/local/bin/wangpansou/zhengli.sh
zhengli.sh文件内容
#!/bin/sh
curl http://wjsou.com/zhengli.php
运行java程序 java -jar /usr/local/bin/wangpansou/File.jar
ctrl+c是强制中断程序的执行
ctrl+z将任务中断并在后台运行,fg命令重新启动前台被中断的任务。
而ctrl+z的是将任务中断,但是此任务并没有结束,他仍然在进程中他只是维持挂起的状态,用户可以使用fg/bg操作继续前台或后台的任务,fg命令重新启动前台被中断的任务,bg命令把被中断的任务放在后台执行.
例如:
当你vi一个文件是,如果需要用shell执行别的操作,但是你又不打算关闭vi,因为你得
存盘推出,你可以简单的按下ctrl+z,shell会将vi进程挂起~,当你结束了那个shell操作之后,你可以用fg命令继续vi你的文件.
4。后台运行 (ssh关了也不会关)
不生成 nohup.out的方法
nohup java -jar /usr/local/bin/wangpansou/File.jar>/dev/null 2>&1 &
关键在于最后的 >/dev/null 2>&1 部分,/dev/null是一个虚拟的空设备(类似物理中的黑洞),任何输出信息被重定向到该设备后,将会石沉大海
>/dev/null 表示将标准输出信息重定向到"黑洞"
2>&1 表示将标准错误重定向到标准输出(由于标准输出已经定向到“黑洞”了,即:标准输出此时也是"黑洞",再将标准错误输出定向到标准输出,相当于错误输出也被定向至“黑洞”)
nohup java -jar /usr/local/bin/wangpansou/File.jar > wjsou_File_out.log 2>&1 &
tail -f /root/wjsou_File_out.log 实时看运行输出日志
nohup java -jar /usr/local/bin/wangpansou/Soyun.jar > wjsou_Soyun_out.log 2>&1 &
nohup java -jar /usr/local/bin/wangpansou/Fabu.jar > wjsou_Fabu_out.log 2>&1 &
//关闭进程
ps -aux | grep java
kill -s 9 xxx
xxx代表上一步查出的进程ID
可以直接用一句话执行 关闭进程
ps aux |grep File.jar |grep -v grep |awk '{print $2}' |xargs kill -9
linux下删除乱码文件名:
1. ls -i 列出文件的节点ID, 如: 123456789
2. find ./ -inum 123456789 -print -exec rm -rf {} \;
批量删除:
for n in 123456789 987654321;do find . -inum $n -exec rm -f {} \;;done
zip文件解压与压缩
例1:解压文件
将压缩文件www.zip解压到/www/web/5_wjsou_com/public_html目录下,如果已有相同的文件存在,要求unzip命令不覆盖原先的文件。
unzip -n /root/www.zip -d /www/web/5_wjsou_com/public_html例2:打包目录
将/www/web/5_wjsou_com/public_html这个目录下所有文件和文件夹打包为当前目录下的www.zip
zip -q -r www.zip /www/web/5_wjsou_com/public_html
write error (disk full?) 磁盘已满,不能解压了,即使解压了数据也不完整,会丢失
查看各文件夹大小:du -h --max-depth=1
检查表 Check table file
修复表 Repair table file文件搜wjsou维护
1.数据库中更新状态为未知 update file set valid=3 where valid=1;
2.运行检查失效链接的爬虫(上面4)
3.查看进度 select valid,count(*) from file where memo is null group by valid;
删除失效链接 delete from file where valid=2;
reboot重启