AWSのLambda 実行環境と利用できるライブラリで確認する。
2015年12月現在では、 AMI ID: アジアパシフィック(東京) リージョンの ami-cbf90ecb を使っている。
| name: "GoogleNet" | |
| input: "data" | |
| input_dim: 10 | |
| input_dim: 3 | |
| input_dim: 224 | |
| input_dim: 224 | |
| # hierarchy 1 | |
| # conv -> relu -> pool -> lrn |
AWSのLambda 実行環境と利用できるライブラリで確認する。
2015年12月現在では、 AMI ID: アジアパシフィック(東京) リージョンの ami-cbf90ecb を使っている。
This is a short post that explains how to write a high-performance matrix multiplication program on modern processors. In this tutorial I will use a single core of the Skylake-client CPU with AVX2, but the principles in this post also apply to other processors with different instruction sets (such as AVX512).
Matrix multiplication is a mathematical operation that defines the product of
| terraform { | |
| required_providers { | |
| aws = { | |
| source = "hashicorp/aws" | |
| version = "~> 4.0" | |
| } | |
| } | |
| } | |
| provider "aws" { |
| ### JHW 2018 | |
| import numpy as np | |
| import umap | |
| # This code from the excellent module at: | |
| # https://stackoverflow.com/questions/4643647/fast-prime-factorization-module | |
| import random |