最近, 有关程序员因为参与某些项目开发导致被起诉, 甚至被判刑的事件发生的比较多:
某程序员因为接了个外包, 帮别人写了个软件, 结果这个软件被用于赌博导致被抓.
某公司利用爬虫抓取用户信息, 最后被发现, 导致该公司的程序员被抓.
某 P2P 公司暴雷, 老板跑路, 程序员被抓.
中科大博士卖 "外挂" 非法牟利 300 多万, 被警方逮捕.
那么, 作为一个程序员, 如何避免这些坑呢? 怎样尽可能的保护自己呢?
本文就从爬虫, 赌博网站, P2P 以及外挂等几个方向来介绍下, 作为程序员如何避免面向监狱编程!
由于作者并非专业的法律工作从业者, 文中法规部分的引用如有偏差, 请指正. 希望通过本文可以帮助广大程序员们了解一下有哪些自己的人身自由息息相关的坑.
一, 爬虫
爬虫, 是互联网时代一项普遍运用的网络信息搜集技术. 该项技术最早应用于搜索引擎领域, 是搜索引擎获取数据来源的支撑性技术之一.
随着数据资源的爆炸式增长, 网络爬虫的应用场景和商业模式变得更加广泛和多样, 较为常见的有新闻平台的内容汇聚和生成, 电子商务平台的价格对比功能, 基于气象数据的天气预报应用等等.
网络爬虫技术为数据收集者提供了极大的便利, 也给专业网络爬虫公司带来巨大的收益. 所以, 很多公司都会有爬虫部门, 或者负责开发爬虫的团队, 在招聘网站上, 也随处可见关于 "爬虫工程师" 的招聘贴.

关于这个问题, 一直都是比较难定性的, 因为爬虫本身只是个工具, 就和菜刀一样, 所以很多人都拿 "菜刀无罪论","技术无罪论" 来为爬虫辩护.
从网络爬虫的相关案例来看, 爬虫的开发及使用者通常有很多理由为自己辩护:
- "我爬取的都是这个网站的公开数据, 搜索引擎不也是这么做的吗?"
- "这与搜索引擎行为类似, 只是使用了自动脚本, 这是合理使用行为."
- "我已经遵守了它们的 robots 协议, 该网站没有 robots 协议"
- "这些数据我只是个人研究使用, 并没有商业目的.".
那么, 爬虫到底犯不犯法?
- https://zhuanlan.zhihu.com/p/66997586
- https://www.zhihu.com/question/37767673
来源: https://www.cnblogs.com/hollischuang/p/11750625.html