摘要:
转自:http://www.cnblogs.com/JesseV/archive/2009/11/17/1605015.html在项目中总会遇到一些关于加载的优先级问题,近期也同样遇到过类似的,所以自己查找资料总结了下,下面有些是转载其他人的,毕竟人家写的不错,自己也就不重复造轮子了,只是略加点了自... 阅读全文
摘要:
生产模式启动里需要输入用户名和密码,很麻烦。在域的/security目录下创建文件boot.properties,内容为:username=weblogicpassword=weblogic123然后运行以下命令:./startWebLogic.sh-Dweblogic.system.StoreBo... 阅读全文
摘要:
一、IKJ56251I USER NOT AUTHORIZED FOR SUB+IKJ56251I YOUR TSO ADMINISTRATOR MUST AUTHORIZE USE OF THIS COMMAND原因:没有授予用户权限,用管理员账号做如下授权,其中两条有用,JCL对应的命令就是... 阅读全文
摘要:
一、DB2 RACF control module定义在prefix.SDSNSAMP(DSNXRXAC)中,查找一下数据集符合*.SDSNSAMP数据集有两个,我这里使用的DB V9,自然prefix就是DSN910了二、进入DSN910.SDSNSAMP,查看DSNXRXAC成员。可以知道几个非... 阅读全文
摘要:
1)登录的时候可以看到登录执行的PROCEDURE,此处为DBSPROC2、登录后,进入SDSF,再进入LOG,输入命令TOP,再输入命令F JOB,按F11把屏幕向右翻页,看到哪下界面找到//IEFPDSI DD DSN=xxxxxx.DISP=SHR此处可以找到ADCD.Z19.PROCLIB和... 阅读全文
摘要:
注:命令行小写部分表出需要根据自己的情况改变!!a)激活SDSF资源类SETROPTS CLASSACT(SDSF)b)查看SDSF资源类的PROFILERLIST SDSF *c)如果不存在GROUP.ISFUSER.servername的PROFILE,则需要定义,RDEFINE SDSF (G... 阅读全文
摘要:
注意之前要import os1.获得当前路径在Python中可以使用os.getcwd()函数获得当前的路径。其原型如下所示。os.getcwd()该函数不需要传递参数,它返回当前的目录。需要说明的是,当前目录并不是指脚本所在的目录,而是所运行脚本的目录。例如,在PythonWin中输入如下脚本。>>>importos>>>print'currentdirectoryis',os.getcwd()currentdirectoryisD:\Python25\Lib\site-packages\pythonwin#这里是PythonWin的安装目 阅读全文
摘要:
一、基本命令命 令简描 述gdbgdb [filename] [core]setset arg -?设置参数directorydirectory DIRfilef装入想要调试的可执行文件.kill终止正在调试的程序.listllist列出产生执行文件的源代码的一部分.list function显示该程序开始处前后五行的程序代码list -上次显示程序代码的前面的十行nextn执行一行源代码但不进入函数内部.steps执行一行源代码而且进入函数内部.runrr [args]执行当前被调试的程序untilu执行一行程序,若此时程序是在 for/while/do loop 循环的最后一行,则一直执行 阅读全文
摘要:
50030 mapred.job.tracker.http.address描述:JobTracker administrative web GUI JOBTRACKER的HTTP服务器和端口50070 dfs.http.address描述:NameNode administrative web GUI NAMENODE的HTTP服务器和端口50010 dfs.datanode.address描述:DataNode control port (each DataNode listens on this port and registers it with the? NameNode on st. 阅读全文
摘要:
转自:http://xuyuanshuaaa.iteye.com/blog/1188367错误1:bin/hadoop dfs 不能正常启动,持续提示: INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s).原因:由于 dfs 的部分文件默认保存在tmp文件夹,在系统重启时被删除。解决:修改core-site.xml 的 hadoop.tmp.dir配置文件路径:/home/hadoop/tmp。错误2:hadoop出现了一些问题。用$ bin/hadoop 阅读全文