Skip to content

Instantly share code, notes, and snippets.

View pydemia's full-sized avatar

Youngju Jaden Kim pydemia

  • SK Holdings C&C
  • Seongnam-si, KR
View GitHub Profile
@pydemia
pydemia / keras_attention_wrapper.py
Created January 12, 2018 02:34 — forked from wassname/keras_attention_wrapper.py
A keras attention layer that wraps RNN layers.
"""
A keras attention layer that wraps RNN layers.
Based on tensorflows [attention_decoder](https://github.com/tensorflow/tensorflow/blob/c8a45a8e236776bed1d14fd71f3b6755bd63cc58/tensorflow/python/ops/seq2seq.py#L506)
and [Grammar as a Foreign Language](https://arxiv.org/abs/1412.7449).
date: 20161101
author: wassname
url: https://gist.github.com/wassname/5292f95000e409e239b9dc973295327a
"""
#!/usr/bin/ruby
# Create display override file to force Mac OS X to use RGB mode for Display
# see http://embdev.net/topic/284710
require 'base64'
data=`ioreg -l -d0 -w 0 -r -c AppleDisplay`
edids=data.scan(/IODisplayEDID.*?<([a-z0-9]+)>/i).flatten
vendorids=data.scan(/DisplayVendorID.*?([0-9]+)/i).flatten
@pydemia
pydemia / TensorFlow 시작하기.md
Created February 25, 2017 03:47 — forked from haje01/TensorFlow 시작하기.md
TensorFlow 시작하기

텐서플로우 시작하기

글쓴이: 김정주([email protected])

이 문서는 텐서플로우 공식 페이지 내용을 바탕으로 만들어졌습니다.


소개

텐서플로우(TensorFlow)는 기계 학습과 딥러닝을 위해 구글에서 만든 오픈소스 라이브러리입니다. 데이터 플로우 그래프(Data Flow Graph) 방식을 사용하였습니다.

@pydemia
pydemia / README.md
Created December 20, 2016 12:09 — forked from allieus/README.md

서울대 경영대, 2016 벤처창업웹프로그래밍1 (이하 벤1), 파이썬 기말고사 시험문제입니다. 각자 한 번 풀어보세요.

이와 관련해서 질문이 있으신 분은 댓글 혹은 AskDjango 페이스북 그룹 에 질문을 남겨주세요.

벤1 은 파이썬 강의이며, 벤처창업웹프로그래밍2 (이하 벤2) 의 선수과목입니다. 벤2 에서는 Django 웹프레임워크를 1학기 동안 다룹니다.

문제풀이도 공개했습니다. : https://github.com/askdjango/snu-web-2016-09/tree/master/finals

AskDjango 이진석

@pydemia
pydemia / datasets.md
Created October 8, 2016 02:34 — forked from mrflip/datasets.md
Overview of Datasets

== Overview of Datasets ==

The examples in this book use the "Chimpmark" datasets: a set of freely-redistributable datasets, converted to simple standard formats, with traceable provenance and documented schema. They are the same datasets as used in the upcoming Chimpmark Challenge big-data benchmark. The datasets are:

  • Wikipedia English-language Article Corpus (wikipedia_corpus; 38 GB, 619 million records, 4 billion tokens): the full text of every English-language wikipedia article, in

  • Wikipedia Pagelink Graph (wikipedia_pagelinks; ) --

  • Wikipedia Pageview Stats (wikipedia_pageviews; 2.3 TB, about 250 billion records (FIXME: verify num records)) -- hour-by-hour pageview