事业单位

aix的内存限制怎么解决

启动hadoop不成功,报错:2015-10-21 01:20:06,518 INFO org.apache.hadoop.ipc.Server: IPC Server handler 1 on 9000: starting2015-10-21 01:20:06,519 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.lang.OutOfMemoryError: unable to create new nativ...显示全部

启动hadoop不成功,报错:

2015-10-21 01:20:06,518 INFO org.apache.hadoop.ipc.Server: IPC Server handler 1 on 9000: starting

2015-10-21 01:20:06,519 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.lang.OutOfMemoryError: unable to create new native thread

        at java.lang.Thread.start0(Native Method)

        at java.lang.Thread.start(Thread.java:714)

        at org.apache.hadoop.ipc.Server.start(Server.java:1583)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:306)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:496)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1279)

        at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1288)


bash-4.2# ulimit -a

core file size          (blocks, -c) 1048575

data seg size           (kbytes, -d) 131072

file size               (blocks, -f) 1048575

max memory size         (kbytes, -m) 32768

open files                      (-n) 2000

pipe size            (512 bytes, -p) 64

stack size              (kbytes, -s) 32768

cpu time               (seconds, -t) unlimited

max user processes              (-u) unlimited

virtual memory          (kbytes, -v) unlimited

bash-4.2#



求解,谢谢了!在线等

收起
参与9

查看其它 1 个回答a156580801的回答

a156580801a156580801IT顾问盒子支付

没仔细看你的过程,看看是否有对单独用户加限制。

工业制造其它 · 2015-10-21
浏览1726
  • 已经解决了,我把/etc/security/ulimits文件里的参数值都改成-1了。
    2015-10-21

回答者

a156580801
IT顾问盒子支付
擅长领域: 服务器AIXUnix

a156580801 最近回答过的问题

回答状态

  • 发布时间:2015-10-21
  • 关注会员:4 人
  • 回答浏览:1726
  • X社区推广