`rst2blogger`_ というのがあったので試してみます。 その名前の通りreStructuredTextで書いた文章をbloggerの記事にしてくれるものです。 この記事は `rst2blogger`_ を使って投稿してみています。
`ドキュメント`_ をみると引数はreSTファイルだけでよくて、ドラフトに突っ込んでくれるようで、 タイトルが同じであれば、同じエントリの更新になるので直したら普通にアップロードしなおせば良いようです。
| # coding: utf-8 | |
| """ | |
| a proof of concept implementation of SQLite FTS tokenizers in Python | |
| """ | |
| from __future__ import print_function, unicode_literals | |
| import sys | |
| import ctypes | |
| from ctypes import POINTER, CFUNCTYPE | |
| import struct |
| # -*- coding: utf-8 -*- | |
| from __future__ import unicode_literals | |
| from whoosh import query | |
| from whoosh.fields import * | |
| from whoosh.filedb.filestore import RamStorage | |
| import whooshjp | |
| from whooshjp.IgoTokenizer import IgoTokenizer | |
| import igo.Tagger |
| import java.io.*; | |
| public class Main { | |
| public static void main(String[] args) { | |
| try (BufferedReader br = new BufferedReader(new InputStreamReader(new FileInputStream("hoge")))) { | |
| // use buffered reader ... | |
| } catch (IOException e) { | |
| e.printStackTrace(); | |
| } | |
| } |
| Python 2.7.2 (default, Jun 12 2011, 15:08:59) [MSC v.1500 32 bit (Intel)] on win | |
| 32 | |
| Type "help", "copyright", "credits" or "license" for more information. | |
| >>> print unichr(ord(u'生') & ord(u'死')) | |
| 愛 |
| from itertools import izip, tee | |
| def ntuple(it, n): | |
| its = tee(it, n) | |
| for c, i in enumerate(its): | |
| for j in range(c): i.next() | |
| return izip(*its) |
`rst2blogger`_ というのがあったので試してみます。 その名前の通りreStructuredTextで書いた文章をbloggerの記事にしてくれるものです。 この記事は `rst2blogger`_ を使って投稿してみています。
`ドキュメント`_ をみると引数はreSTファイルだけでよくて、ドラフトに突っ込んでくれるようで、 タイトルが同じであれば、同じエントリの更新になるので直したら普通にアップロードしなおせば良いようです。
| import org.apache.lucene.analysis.TokenStream; | |
| import org.apache.lucene.analysis.ja.JapaneseAnalyzer; | |
| import org.apache.lucene.analysis.ja.tokenattributes.BaseFormAttribute; | |
| import org.apache.lucene.analysis.ja.tokenattributes.InflectionAttribute; | |
| import org.apache.lucene.analysis.ja.tokenattributes.PartOfSpeechAttribute; | |
| import org.apache.lucene.analysis.ja.tokenattributes.ReadingAttribute; | |
| import org.apache.lucene.analysis.tokenattributes.CharTermAttribute; | |
| import org.apache.lucene.util.Version; | |
| import java.io.IOException; |
| # valid | |
| USEPDFLATEX=true | |
| PDFLATEX=lualatex | |
| LaTeXDocument(main, main) | |
| .DEFAULT: main.pdf |
| # coding: utf-8 | |
| import networkx | |
| G=networkx.Graph() | |
| from matplotlib import pyplot | |
| G.add_edge(u'池袋', u'新宿') | |
| G.add_edge(u'新宿', u'代々木') | |
| G.add_edge(u'代々木', u'品川') | |
| G.add_edge(u'品川', u'東京') | |
| G.add_edge(u'東京', u'神田') |
| <!DOCTYPE html> | |
| <html> | |
| <head> | |
| <meta charset="utf-8"> | |
| <meta http-equiv="X-UA-Compatible" content="IE=8 ; IE=9" /> | |
| <title>chcek JavaScript engine version</title> | |
| </head> | |
| <body> | |
| </body> | |
| <script> |