SamC: #受欢迎资源 LibGen全站电子书
SamC:#受欢迎资源Title:LibGen全站电子书Size:约30TB全站种子打包https://pan.baidu.com/share/init?surl=QQmopeOp9d2eWZvpfex-bg提取码:txc1描述全球最大的科学资源在线图书馆LibGen,目前有244.9万册图书,32,817GB(约30TB)。据传闻(原英文报导),该网站有可能面临被下线的危险。来个热心网友转存GD分类标签#Baidu@gdurl欢迎对资源分流、补链#1vic:正能量,疯狂打call#2Richard:刺激,松鼠党们又可以填充自己网盘了。Libgen他和海盗湾一样坚挺,真不错的!不过这些书他好像一直在更新并提供全站种子库让下载,希望有一个能同步从bt转存到别的网盘的服务~#3Borber:这么大谁的百度云有30T呀#4Tony:目测存的只是种子文件#5Borber:噢噢原来如此没注意#6Kent:这个酷#7bush:我们可以建立一个团队盘,分组打包,一个人下载不过来#8Joker:丧心病狂啊#9:之前还想拿IDM爬下来的,没想到在这看到了#10qiu:其实不大,一个人传1T,要30人就可以了,主要是能长期保留难呀.#11Mozilla:只有无限量的团队盘搞了#12bush:图书,文件名没有分类没有索引,这下载下来,怎么弄?#13charles:建议下载的大佬,750g左右归档一个文件夹#14Steven:这个有点尴尬啊,下载下来怎么看啊,都是这种的:c39314fc9c92c3952714b0da3c775f23#15Steven:原来如此:https://www.douban.com/note/745139496/#16Borber:完工了???#17Steven:好像是,文末写的“2019年12月13日21:55:59,244.98万册,32.22TB,备份完毕。”#18Borber:但是并不公开。。。#19Steven:可以跟楼主索要吧,关键没那么大的空间,他应该是存在115了#20Borber:书名是md5。。感觉蛮不方便的#21Steven:对啊,还得下载数据库找对应书名。#22Borber:关键是找不着得到数据库#23Steven:贴子里有个连接,这里有数据库文件。http://gen.lib.rus.ec/dbdumps#24Borber:那应该来个大佬写个脚本就能搞定了#25Steven:前提是得把31T都下载下来#26Borber:放在Google云盘里也可以重命名呀#27Steven:那工程量就太大了,不如本地命名好再上传。而且GD私人没这么大空间吧#28Borber:gd无限容量对那些大佬来说不是事吧我都有好几个#29Steven:那就好,对我这一个都没有的就是事#30shutup:30T这怎么搞到GD啊,大工程#31Borber:换几个账号上传到同一个团队盘?不知道没有实际操作过#32Steven:推荐个开源项目,专门做大文件GD备份的。https://github.com/xyou365/AutoRclone#33渣渣辉:没文件名没索引,太难了#34玩玩:已经开始转存,单个种子包含999个文件,单个团队盘最多可以放40W个文件,所以先存到无限容量的谷歌盘,有时间了在分到几个团队盘去,但是整理跟检索是个大工程啊#35Steven:厉害#36limeijuan:?#37JASON:没书名没索引,等待高手冒泡#38dll:有数据库的,下载地址http://gen.lib.rus.ec/dbdumps/#39Mitrl:买个无限流量的大盘鸡,利用aria2+rclone离线下载并自动上传到无限容量的GD就行了。#40_:首先,这种东西没有做成库,目录啥都没有的话可用性低,收藏性不强#41Cecil:都没人去做怎么会有呢这不是都在等着有人弄一个么。而且这种实时性很高,有什么收藏的,后面的还在不断产生,还希望有人能实时跟进转存,这样说来这么间距更是没有让人收藏的欲望?#42REANT:#43li:很想转到GD,但是小白不知道转到GD盘的时候,如何自动分文件夹存#44光:PT里有这个下载