月度归档:2017年05月

更多小思考

选择大于努力

以前对这句话是没有多大理解的,在生活中遇到多了以后,才发现这句话是如此的正确。举个栗子,房价,十年以前,甚至五年以前,买房的(不管是贷的借的怎么来的)人都赚了一波,房子的升值大家都看得见。很多实业公司的老板直接投资房地产,几年的利润就比开个一百来人的工厂赚多了(虽然我觉得资金从实业流向房地产并不是什么好事,但从个体来说,投资几套房子,坐着收钱是个很不错的方式),再比如比特币,七年时间,100美元能变成7500万美元(2010年开采比特币的价值约为0.003美分),再比如一波互联网公司,选得好的早就财务自由了,例子太多。目前来看,单有努力,只能维持温饱吧。当然努力的作用不能被否定,中华民族的勤奋也是很吓人的。

接受不公平

世界本来就是不公平的,首先要接受这个事实。有些人生来富贵,还颜值爆棚,有些人天生有缺陷,还没钱,so what?总有人说上帝给你关闭了一扇门,就会为你打开一扇窗,我看来才不是这样,每个人都有很多门窗的,上帝是关不完的,区别就是有的人天生幸运看的门窗比较多,选择比较多,不幸的人往往选择少点罢了。每天在意这在意那不公平的,日子简直就没法过了。

坚持真是最可贵的品质

能坚持做一件事情,不管是大事小事,难事易事,能坚持做都很不容易,不多说。

中国人很能忍,需要点与众不同的地方

勤劳勇敢勤奋节约是中华民族的传统美德(好熟悉的句式),说得俗一点就是很耐操。生活中事事都忍,被人欺负了,忍,工作加班,忍(你不忍,自有能忍的人),被潜规则了,忍!凡事都得忍。。。在这个加班疯狂的地方,努力与勤奋好像变得好廉价,要尽力避免进入这种情况,让自己的努力变得更有价值,所以需要打造自身的一些特殊性,不可替代性,这是方向。

一些小感悟

真正的高效不是在做最多的事,而是做最值得做的事

我自身就很容易就陷入了这种尴尬的情况,老是想着,还有很多事情没有,要赶紧做完,其实要多思考一下,这个事情是不是真的值得做。

避免陷入假勤奋,假积极的圈子

很多时候,所谓的努力,勤奋,只是自我安慰罢了,比如去图书馆,却经常想着手机,努力避免玩手机了,却因耗费了意志力,在学习上又精力不足,对着电脑自以为在敲代码,其实效率低得很,要学着用结果去判断,而不是说我已经学习了一天了,这只是自欺欺人。

刷存在感,寻求认同感

这个我还不知道是好事还是坏事,老是想着找个人,或者找个社区,发个帖子,互相监督还是怎样的,总是希望有人能看到自己的努力一样,一不小心,又会陷入这种形式当中。

陷入软件选择的怪圈

各种清单APP,笔记软件,轮流换,总是在寻找什么软件最好,到最后事情也没有做好。

时间管理的核心其实自制力

这是我的真切感受,什么早起,勤奋,其实那些都是次要的,算了一下,早起一个小时,但是一天浪费的时间可能就不止一个小时了,这常常让我怀疑我的早起是否有意义,如果有良好的自制力,早起步早期,打卡不大卡其实真的没有关系。

番茄工作法是个好东西

番茄工作法,确实能提高效率,但是会让自己很累,因为集中精神了嘛。然后就会让自己胆怯,不太想用了,这一点很无语,所以要好好休息。

锻炼很重要

身体状况和效率息息相关.

pyspider Exception: HTTP 599: Resolving timed out after 20000 milliseconds

现象描述

初学pyspider,写demo程序,一直报以下异常

[E 170504 16:08:57 base_handler:203] HTTP 599: Resolving timed out after 20000 milliseconds
    Traceback (most recent call last):
      File "d:\application\python36-32bit\lib\site-packages\pyspider\libs\base_handler.py", line 196, in run_task
        result = self._run_task(task, response)
      File "d:\application\python36-32bit\lib\site-packages\pyspider\libs\base_handler.py", line 175, in _run_task
        response.raise_for_status()
      File "d:\application\python36-32bit\lib\site-packages\pyspider\libs\response.py", line 172, in raise_for_status
        six.reraise(Exception, Exception(self.error), Traceback.from_string(self.traceback).as_traceback())
      File "d:\application\python36-32bit\lib\site-packages\six.py", line 685, in reraise
        raise value.with_traceback(tb)
      File "d:\application\python36-32bit\lib\site-packages\pyspider\fetcher\tornado_fetcher.py", line 378, in http_fetch
        response = yield gen.maybe_future(self.http_client.fetch(request))
      File "d:\application\python36-32bit\lib\site-packages\tornado\httpclient.py", line 102, in fetch
        self._async_client.fetch, request, **kwargs))
      File "d:\application\python36-32bit\lib\site-packages\tornado\ioloop.py", line 458, in run_sync
        return future_cell[0].result()
      File "d:\application\python36-32bit\lib\site-packages\tornado\concurrent.py", line 238, in result
        raise_exc_info(self._exc_info)
      File "<string>", line 4, in raise_exc_info
    Exception: HTTP 599: Resolving timed out after 20000 milliseconds

以下为demo代码

#!/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2017-05-03 22:30:09
# Project: xdzhcs_me

from pyspider.libs.base_handler import *


class Handler(BaseHandler):
    crawl_config = {

    }

    @every(minutes=24 * 60)
    def on_start(self):
        self.crawl('http://xdzhcs.me/', callback=self.index_page)

    @config(age=10 * 24 * 60 * 60)
    def index_page(self, response):
        for each in response.doc('a[href^="http"]').items():
            self.crawl(each.attr.href, callback=self.detail_page)

    @config(priority=2)
    def detail_page(self, response):
        return {
            "url": response.url,
            "title": response.doc('title').text(),
        }

百度 谷歌了N久都没找到解决方案,有的说DNS的,然而我这边校园网改了DNS就上不了网了,有说禁用IPV6的,同样没效果,绝望之际,打开QQ找了个pyspider的群,问老司机得知,加个代理就好… 遂顺手加了个翻墙代理(跟墙没关,只是刚好有翻墙的),马上可以。

crawl_config = {
      'proxy': '127.0.0.1:1080'