采纳答案成功!
向帮助你的同学说点啥吧!感谢那些助人为乐的人
bigdata.sql导入的时候出现以上错误,百度得到的解决方法是加大max_allowed_packet=1000M,所以我配成了1000M,但是重启mysql后还是不行,还加了两个属性 ——wait_timeout=2880000 interactive_timeout = 2880000,但是问题依旧没有解决,想问一下老师这个大数据导入要怎样解决啊?
刚问完就解决了。。。是由于navicat导入是默认批量导入的,100条导入一次,之后101-200条应该是超过限定长度就直接挂了。。。
赞同学解决问题的能力,同学也可以用makeData.sql来造数据:)
登录后可查看更多问答,登录/注册
招聘季即将到来,让百度资深面试官来为你的高薪Offer保驾护航
2.3k 27
3.4k 22
1.7k 15
1.9k 14
1.6k 14
购课补贴联系客服咨询优惠详情
慕课网APP您的移动学习伙伴
扫描二维码关注慕课网微信公众号