`rst2blogger`_ というのがあったので試してみます。 その名前の通りreStructuredTextで書いた文章をbloggerの記事にしてくれるものです。 この記事は `rst2blogger`_ を使って投稿してみています。
`ドキュメント`_ をみると引数はreSTファイルだけでよくて、ドラフトに突っ込んでくれるようで、 タイトルが同じであれば、同じエントリの更新になるので直したら普通にアップロードしなおせば良いようです。
# coding: utf-8 | |
""" | |
a proof of concept implementation of SQLite FTS tokenizers in Python | |
""" | |
from __future__ import print_function, unicode_literals | |
import sys | |
import ctypes | |
from ctypes import POINTER, CFUNCTYPE | |
import struct |
# -*- coding: utf-8 -*- | |
from __future__ import unicode_literals | |
from whoosh import query | |
from whoosh.fields import * | |
from whoosh.filedb.filestore import RamStorage | |
import whooshjp | |
from whooshjp.IgoTokenizer import IgoTokenizer | |
import igo.Tagger |
import java.io.*; | |
public class Main { | |
public static void main(String[] args) { | |
try (BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream("hoge")))) { | |
// use buffered reader ... | |
} catch (IOException e) { | |
e.printStackTrace(); | |
} | |
} |
Python 2.7.2 (default, Jun 12 2011, 15:08:59) [MSC v.1500 32 bit (Intel)] on win | |
32 | |
Type "help", "copyright", "credits" or "license" for more information. | |
>>> print unichr(ord(u'生') & ord(u'死')) | |
愛 |
from itertools import izip, tee | |
def ntuple(it, n): | |
its = tee(it, n) | |
for c, i in enumerate(its): | |
for j in range(c): i.next() | |
return izip(*its) |
`rst2blogger`_ というのがあったので試してみます。 その名前の通りreStructuredTextで書いた文章をbloggerの記事にしてくれるものです。 この記事は `rst2blogger`_ を使って投稿してみています。
`ドキュメント`_ をみると引数はreSTファイルだけでよくて、ドラフトに突っ込んでくれるようで、 タイトルが同じであれば、同じエントリの更新になるので直したら普通にアップロードしなおせば良いようです。
import org.apache.lucene.analysis.TokenStream; | |
import org.apache.lucene.analysis.ja.JapaneseAnalyzer; | |
import org.apache.lucene.analysis.ja.tokenattributes.BaseFormAttribute; | |
import org.apache.lucene.analysis.ja.tokenattributes.InflectionAttribute; | |
import org.apache.lucene.analysis.ja.tokenattributes.PartOfSpeechAttribute; | |
import org.apache.lucene.analysis.ja.tokenattributes.ReadingAttribute; | |
import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; | |
import org.apache.lucene.util.Version; | |
import java.io.IOException; |
# valid | |
USEPDFLATEX=true | |
PDFLATEX=lualatex | |
LaTeXDocument(main, main) | |
.DEFAULT: main.pdf |
# coding: utf-8 | |
import networkx | |
G=networkx.Graph() | |
from matplotlib import pyplot | |
G.add_edge(u'池袋', u'新宿') | |
G.add_edge(u'新宿', u'代々木') | |
G.add_edge(u'代々木', u'品川') | |
G.add_edge(u'品川', u'東京') | |
G.add_edge(u'東京', u'神田') |
<!DOCTYPE html> | |
<html> | |
<head> | |
<meta charset="utf-8"> | |
<meta http-equiv="X-UA-Compatible" content="IE=8 ; IE=9" /> | |
<title>chcek JavaScript engine version</title> | |
</head> | |
<body> | |
</body> | |
<script> |