Author: wangwei
Date: Thu Jan 21 02:48:21 2016
New Revision: 1725860

URL: http://svn.apache.org/viewvc?rev=1725860&view=rev
Log:
Correct links for kr version; add link to chinese installation page

Modified:
    incubator/singa/site/trunk/content/markdown/docs/kr/architecture.md
    incubator/singa/site/trunk/content/markdown/docs/kr/communication.md
    incubator/singa/site/trunk/content/markdown/docs/kr/data.md
    incubator/singa/site/trunk/content/markdown/docs/kr/neural-net.md
    incubator/singa/site/trunk/content/markdown/docs/kr/overview.md
    incubator/singa/site/trunk/content/markdown/docs/kr/programming-guide.md
    incubator/singa/site/trunk/content/markdown/docs/kr/quick-start.md
    incubator/singa/site/trunk/content/markdown/docs/zh/index.md

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/architecture.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/architecture.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/architecture.md 
(original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/architecture.md Thu Jan 
21 02:48:21 2016
@@ -19,23 +19,30 @@ Fig.1. 시스템의 구ì
 
   각 worker 그룹은 하나의 server 그룹과 통신합니다. 하나의 
worker 그룹은 매개 변수의 기울기 계산을 담당합니다. 또한 
분할 된 데이터의 일부에 대해 "완전한"모델 복제본을 트ë 
ˆì´ë‹í•©ë‹ˆë‹¤. 모든 worker 그룹들은 해당 server 그룹들과 
비동기 적으로 통신합니다. 그러나 같은 worker 그룹의 
worker들은 동기화합니다.
 
-동일 그룹 내에서 worker들의 분산 트레이닝은 많은 다른 
방법이 있습니다.
+동일 그룹 내에서 worker들의 분산 트레이닝에는 많은 
방법이 있습니다.
 
-  * **모델 병렬화** 각 worker 그룹에 배정 된 모든 데이터에 
대해 매개 변수의 부분 집합을 계산합니다.
-  * **데이터 병렬화** 각 worker는 배분 된 데이터의 부분 
집합에 대해 모든 매개 변수를 계산합니다.
-  * **하이브리드 병렬화** 위의 방법을 조합한 하이브리드 
병렬화를 지원합니다.
+* **모델 병렬화**
+
+  각 worker 그룹에 배정 된 모든 데이터에 대해 매개 변수의 
부분 집합을 계산합니다.
+
+* **데이터 병렬화**
+
+  각 worker는 배분 된 데이터의 부분 집합에 대해 모든 매개 
변수를 계산합니다.
+
+* **하이브리드 병렬화**
+
+  위의 방법을 조합한 하이브리드 병렬화를 지원합니다.
 
 
 ## 임플리멘테이션
 
-SINGA에서 servers와 workers는 다른 스레드에서 움직이는 실행 
유닛입니다.
+SINGA에서 servers 와 workers는 다른 스레드에서 움직이는 실행 
유닛입니다.
 
-In SINGA, servers and workers are execution units running in separate threads.
-그들은 [messages](communication.html)를 이용하여 통신합니다.
-각 프로세스는 로컬 messages를 수집하고 그것을 지원하는 
수신기에 전송하는 stub으로 메인 스레드를 실행합니다.
+이들은 [messages](communication.html)를 이용하여 통신합니다.
+모든 프로세스는 메인 스레드인 stub을 실행하여 로컬 
messages를 수집하고 그것을 대응하는 receiver에 전송합니다.
 
-각 server 그룹과 worker 그룹은 "전체"모델 복제이다 *ParamShard* 
개체를 유지합니다.
-만약 workers와 servers 동일한 프로세스에서 달리는한다면,
+각 server 그룹과 worker 그룹은 "전체"모델 레프리카인 
*ParamShard* 를 가집니다.
+만약 workers 와 servers 가 동일한 프로세스에서 실행된다면,
 ê·¸ *ParamShard* (파티션)은 메모리 공간을 공유하도록 설ì 
•됩니다.
-이 경우 다른 실행 유닛 사이를 오가는 messages는 통신 
비용을 줄이기 위해 데이터의 포인터 만 포함됩니다.
-프로세스 간 통신의 경우와는 달리 messsages는 매개 변수의 
값을 포함합니다.
+이 경우 다른 실행 유닛 사이를 오가는 messages는 통신 
비용을 줄이기 위해 데이터의 포인터 만 포함합니다.
+프로세스 간 통신의 경우와는 달리 messsages는 파라미터 
값을 포함합니다.

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/communication.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/communication.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/communication.md 
(original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/communication.md Thu 
Jan 21 02:48:21 2016
@@ -17,8 +17,8 @@ Singa defined data structure instead of
 We will introduce the two components in detail with the following figure as an
 example architecture.
 
-<img src="../images/arch/arch2.png" style="width: 550px"/>
-<img src="../images/arch/comm.png" style="width: 550px"/>
+<img src="../../images/arch/arch2.png" style="width: 550px"/>
+<img src="../../images/arch/comm.png" style="width: 550px"/>
 <p><strong> Fig.1 - Example physical architecture and network 
connection</strong></p>
 
 Fig.1 shows an example physical architecture and its network connection.
@@ -30,7 +30,7 @@ server tasks are performed by the backgr
 
 ## Message
 
-<object type="image/svg+xml" style="width: 100px" data="../images/msg.svg" > 
Not
+<object type="image/svg+xml" style="width: 100px" data="../../images/msg.svg" 
> Not
 supported </object>
 <p><strong> Fig.2 - Logical message format</strong></p>
 

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/data.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/data.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/data.md (original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/data.md Thu Jan 21 
02:48:21 2016
@@ -1,8 +1,8 @@
-# Data Preparation
+# 데이터 준비
 
 ---
 
-SINGA uses input layers to load data.
+SINGA 는 데이터를 로딩하기 위하여 input layers 를 이용합니다.
 Users can store their data in any format (e.g., CSV or binary) and at any 
places
 (e.g., disk file or HDFS) as long as there are corresponding input layers that
 can read the data records and parse them.

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/neural-net.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/neural-net.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/neural-net.md (original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/neural-net.md Thu Jan 
21 02:48:21 2016
@@ -8,7 +8,7 @@ a set of unidirectionally connected [Lay
 This page describes how to convert an user's neural net into
 the configuration of `NeuralNet`.
 
-<img src="../images/model-category.png" align="center" width="200px"/>
+<img src="../../images/model-category.png" align="center" width="200px"/>
 <span><strong>Figure 1 - Categorization of popular deep learning 
models.</strong></span>
 
 ## Net structure configuration
@@ -21,7 +21,7 @@ category.
 ### Feed-forward models
 
 <div align = "left">
-<img src="../images/mlp-net.png" align="center" width="200px"/>
+<img src="../../images/mlp-net.png" align="center" width="200px"/>
 <span><strong>Figure 2 - Net structure of a MLP model.</strong></span>
 </div>
 
@@ -59,7 +59,7 @@ configuration for the MLP model shown in
 
 ### Energy models
 
-<img src="../images/rbm-rnn.png" align="center" width="500px"/>
+<img src="../../images/rbm-rnn.png" align="center" width="500px"/>
 <span><strong>Figure 3 - Convert connections in RBM and RNN.</strong></span>
 
 
@@ -324,4 +324,3 @@ same subset of model parameters while ot
 parameters.  For example, to implement the hybrid parallelism in for the
 [DCNN model](http://arxiv.org/abs/1404.5997), we set `partition_dim = 0` for
 lower layers and `partition_dim = 1` for higher layers.
-

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/overview.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/overview.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/overview.md (original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/overview.md Thu Jan 21 
02:48:21 2016
@@ -2,12 +2,11 @@
 
 ---
 
-SINGA는 대규모 데이터 분석을 위한 딥러닝 모델의 트ë 
ˆì´ë‹ì„ 목적으로 한 "분산 딥러닝 플랫폼" 입니다.
-모델이 되는 뉴럴네트워크의 "레이어" 개념에 따라 직관ì 
ìœ¼ë¡œ 프로그래밍을 할 수 있도록 디자인되어 있습니다.
+SINGA는 대규모 데이터 분석을 위한 딥러닝 모델의 트ë 
ˆì´ë‹ì„ 목적으로 한 "분산 딥러닝 플랫폼" 입니다. 모델이 
되는 뉴럴네트워크의 "Layer" 개념에 따라서 직관적인 
프로그래밍을 할 수 있도록 디자인되어 있습니다.
 
 * Convolutional Neural Network 와 같은 피드포워드 네트워크와 
Restricted Boltzmann Machine 과 같은 에너지 모델, Recurrent Neural 
Network 모델 등 다양한 모델을 지원합니다.
 
-* 다양한 "레이어"가 Built-in Layer로 준비되어 있습니다.
+* 다양한 기능을 가지는 "Layer"들이 Built-in Layer 로 준비되어 
있습니다.
 
 * SINGA 아키텍처는 synchronous (동기), asynchronous (비동기), 
그리고 hybrid (하이브리드) 트레이닝을 할 수 있도록 
설계되어 있습니다.
 
@@ -34,34 +33,35 @@ SINGA는 딥러닝 모ë�
 ## 시스템 개요
 
 <img src = "../../images/sgd.png" align="center" width="400px"/>
-<span> <strong> Figure 1 - SGD 흐름 </strong> </span>
+<span> <strong> Figure 1 - SGD Flow </strong> </span>
 
-"딥러닝 모델을 학습한다"는 것은 특정 작업 (분류, 예측 
등)을 달성하기 위해 사용되는 특징량(feature)을 생성하는 
변환 함수의 최적의 파라미터를 찾는 것입니다.
-변수의 좋고 나쁨은, Cross-Entropy Loss 
(https://en.wikipedia.org/wiki/Cross_entropy) 등의 loss function (손실 
함수)에서 확인합니다. 이 함수는 일반적으로 비선형 또는 
비 볼록 함수이므로 閉解을 찾기가 어렵습니다.
+"딥러닝 모델을 학습한다"는 것은 특정 작업(분류, 예측 
등)을 달성하기 위하여 사용되는 특징량(feature)을 생성하는 
변환 함수의 최적 파라미터를 찾는 것입니다.
+그 변수의 좋고 나쁨은, Cross-Entropy Loss 
(https://en.wikipedia.org/wiki/Cross_entropy) 등의 loss function (손실 
함수)으로 확인합니다. 이 함수는 일반적으로 비선형 또는 
비 볼록 함수이므로 閉解을 찾기가 힘듭니다.
 
 그래서 Stochastic Gradient Descent (확률적구배강하법)을 
이용합니다.
-Figure 1과 같이 무작위로 초기화 된 매개 변수의 값을 손실 
함수가 작아 지도록 반복 업데이트하고 있습니다.
+Figure 1과 같이 무작위로 초기화 된 파라미터 값을 손실 
함수가 작아 지도록 반복 업데이트하고 있습니다.
 
 <img src = "../../images/overview.png" align="center" width="400px"/>
 <span> <strong> Figure 2 - SINGA 개요 </strong> </span>
 
-트레이닝에 필요한 워크로드는 workers와 servers에 
분산됩니다. Figure 2와 같이 루프마다 workers는 *TrainOneBatch* 
함수를 호출 매개 변수 기울기를 계산합니다.
-*TrainOneBatch* 신경망의 구조가 기술 된 *NeuralNet* 개체에 따라 
"레이어"를 차례로 둘러보고 있습니다.
-계산 된 경사는 로컬 노드의 stub에 보내져 집계 된 후 해당 
servers에 보내집니다. Servers는 업데이트 된 매개 변수를 
workers로 전송 다음 루프를 실행합니다.
+트레이닝에 필요한 워크로드는 workers 와 servers 에 
분산됩니다.
+Figure 2와 같이 루프(iteration)마다 workers 는 *TrainOneBatch* 
함수를 불러서 파라미터 구배를 계산합니다.
+*TrainOneBatch* 는 뉴럴네트워크의 구조가 기술 된 *NeuralNet* ì 
•보에 따라서 "Layer"를 차례로 둘러봅니다.
+계산 된 구배는 로컬노드의 stub 에 보내져 집계 된 후, 해당 
servers 에 전송됩니다. Servers 는 업데이트 된 파라미터 값을 
workers 한테 되돌려주고, 다음 루프(iteration)를 진행합니다.
 
 
 ## Job
 
-SINGA에서 "Job"은 뉴럴네트워크 모델과 데이터 트레이닝 
방법, 클러스터 토폴로지 등이 기술 된 "Job Configuration"을 
말합니다.
-Job configuration은 Figure 2에 그려진 다음의 4 가지 요소를 
가집니다.
+SINGA에서 "Job"이란 뉴럴네트워크 모델과 데이터 트레이닝 
방법, 클러스터 토폴로지 등이 기술 된 "Job Configuration"을 
말합니다.
+Job configuration 은 Figure 2에 그려진 다음의 4가지 요소를 
가집니다.
 
-  * [NeuralNet](neural-net.html) : 뉴럴네트워크의 구조와 각 "ë 
ˆì´ì–´"의 설정을 기술합니다.
-  * [TrainOneBatch](train-one-batch.html) : 모델 카테고리에 적합한 
알고리즘을 기술합니다.
-  * [Updater](updater.html) : server에서 매개 변수를 업
데이트하는 방법을 기술합니다.
-  * [Cluster Topology](distributed-training.html) : workers와 servers 
분산 토폴로지를 기술합니다.
+* [NeuralNet](neural-net.html) : 뉴럴네트워크의 구조와 각 "ë 
ˆì´ì–´"의 설정을 기술합니다.
+* [TrainOneBatch](train-one-batch.html) : 모델 카테고리에 적합한 
알고리즘을 기술합니다.
+* [Updater](updater.html) : server에서 매개 변수를 업데이트하는 
방법을 기술합니다.
+* [Cluster Topology](distributed-training.html) : workers와 servers 분산 토
폴로지를 기술합니다.
 
-[main 함수](programming-guide.html)의 SINGA 드라이버로 작업을 ì 
„달합니다.
+[main 함수](programming-guide.html)의 SINGA 드라이버를 써서 Job 을 
넘깁니다.
 
 이 프로세스는 Hadoop에서의 Job 서브미션과 비슷합니다.
 유저가 main 함수에서 작업 설정을 합니다.
-Hadoop 유저는 자신의 mapper와 reducer를 설정하지만 SINGA 
에서는 유저의 "레이어"나 Updater 등을 설정합니다.
+Hadoop 유저는 자신의 mapper와 reducer를 설정하지만 SINGA 
에서는 유저의 Layer 나 Updater 등을 설정합니다.

Modified: 
incubator/singa/site/trunk/content/markdown/docs/kr/programming-guide.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/programming-guide.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/programming-guide.md 
(original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/programming-guide.md 
Thu Jan 21 02:48:21 2016
@@ -1,14 +1,13 @@
-# Programming Guide
+# 프로그래밍 가이드
 
 ---
 
-To submit a training job, users must provide the configuration of the
-four components shown in Figure 1:
+Figure 1에 그려진 다음과 같은 4가지 Components 를 설정하여 
트레이닝을 시작합니다.
 
-  * a [NeuralNet](neural-net.html) describing the neural net structure with 
the detailed layer setting and their connections;
-  * a [TrainOneBatch](train-one-batch.html) algorithm which is tailored for 
different model categories;
-  * an [Updater](updater.html) defining the protocol for updating parameters 
at the server side;
-  * a [Cluster Topology](distributed-training.html) specifying the distributed 
architecture of workers and servers.
+  * [NeuralNet](neural-net.html) : 뉴럴네트워크의 구조와 각 "ë 
ˆì´ì–´"의 설정을 기술합니다.
+  * [TrainOneBatch](train-one-batch.html) : 모델 카테고리에 적합한 
알고리즘을 기술합니다.
+  * [Updater](updater.html) : server에서 매개 변수를 업데이트하는 
방법을 기술합니다.
+  * [Cluster Topology](distributed-training.html) : workers와 servers 분산 
토폴로지를 기술합니다.
 
 The *Basic user guide* section describes how to submit a training job using
 built-in components; while the *Advanced user guide* section presents details
@@ -17,11 +16,11 @@ themselves. In addition, the training da
 [process](data.html) for both advanced users and basic users.
 
 <img src="../../images/overview.png" align="center" width="400px"/>
-<span><strong>Figure 1 - SINGA overview.</strong></span>
+<span><strong>Figure 1 - SINGA 개요 </strong></span>
 
 
 
-## Basic user guide
+## Basic 유저 가이드
 
 Users can use the default main function provided SINGA to submit the training
 job. For this case, a job configuration file written as a google protocol
@@ -36,7 +35,7 @@ examples use built-in components. Please
 job configuration files. The subsequent pages will illustrate the details on
 each component of the configuration.
 
-## Advanced user guide
+## Advanced 유저 가이드
 
 If a user's model contains some user-defined components, e.g.,
 [Updater](updater.html), he has to write a main function to
@@ -47,10 +46,9 @@ the main function should
 
   * register user-defined components.
 
-  * create and pass the job configuration to SINGA driver
+  * create and pass the job configuration to SINGA driver  
 
-
-An example main function is like
+main 함수의 샘플입니다.
 
     #include "singa.h"
     #include "user.h"  // header for user code

Modified: incubator/singa/site/trunk/content/markdown/docs/kr/quick-start.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/kr/quick-start.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/kr/quick-start.md 
(original)
+++ incubator/singa/site/trunk/content/markdown/docs/kr/quick-start.md Thu Jan 
21 02:48:21 2016
@@ -12,45 +12,45 @@ SINGA 트레이닝은 [zo
 
 준비된 thirdparty 스크립트를 사용하여 zookeeper를 설치 한 
경우 다음 스크립트를 실행하십시오.
 
-    #goto top level folder
-    cd SINGA_ROOT
-    ./bin/zk-service.sh start
+    #goto top level folder
+    cd SINGA_ROOT
+    ./bin/zk-service.sh start
 
 (`./bin/zk-service.sh stop` // zookeeper 중지).
 
-기본 포트를 사용하지 않고 zookeeper를 시작시킬 때 
`conf/singa.conf`을 편집하십시오.
+기본 포트를 사용하지 않고 zookeeper를 시작시킬 때는 
`conf/singa.conf`을 편집하십시오.
 
-    zookeeper_host : "localhost : YOUR_PORT"
+    zookeeper_host : "localhost : YOUR_PORT"
 
-## 독립형 모드에서 실행
+## Stand-alone 모드에서 실행
 
-독립형 모드에서 SINGA을 실행할 때, 
[Mesos](http://mesos.apache.org/)와 
[YARN](http://hadoop.apache.org/docs/current/hadoop-yarn/hadoop- yarn-site / 
YARN.html)과 같은 클러스터 관리자 이용하지 않는 경우를 
말합니다.
+Stand-alone 모드에서 SINGA을 실행할 때, 
[Mesos](http://mesos.apache.org/) 와 
[YARN](http://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/YARN.html)
 과 같은 클러스터 관리툴을 이용하지 않는 경우를 
말합니다.
 
-### Single 노드에서의 훈련
+### Single 노드에서의 트레이닝
 
-하나의 프로세스가 출시됩니다.
+하나의 프로세스가 시작됩니다.
 예를 들어,
 [CIFAR-10](http://www.cs.toronto.edu/~kriz/cifar.html) 데이터 세트를 
이용하여
-[CNN 
모델](http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks)을
 트레이닝시킵니다.
+[CNN 
모델](http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks)을
 트레이닝 시킵니다.
 하이퍼 파라미터는 
[cuda-convnet](https://code.google.com/p/cuda-convnet/)에 따라 설정되어 
있습니다.
 자세한 내용은 [CNN 샘플](cnn.html) 페이지를 참조하십시오.
 
 
 #### 데이터와 작업 설정
 
-데이터 세트 다운로드와 Triaing이나 Test를위한 데이터 
샤드의 생성은 다음과 같이 실시합니다.
+데이터 세트 다운로드와 Triaing 이나 Test 를 위한 데이터 
샤드의 생성은 다음과 같이 실시합니다.
 
-    cd examples/cifar10/
-    cp Makefile.example Makefile
-    make download
-    make create
-
-Training과 Test 데이터 세트는 각각 *cifar10-train-shard*
-그리고 *cifar10-test-shard* 폴더에 만들어집니다. 모든 
이미지의 특징 평균을 기술한 *image_mean.bin* 파일도 
생성됩니다.
-
-CNN 모델 학습에 필요한 소스 코드는 모두 SINGA에 포함되어 
있습니다. 코드를 추가 할 필요는 없습니다.
-작업 설정 파일 (*job.conf*) 을 지정하여 스크립트 
(*../../bin/singa-run.sh*)를 실행합니다.
-SINGA 코드를 변경하거나 추가 할 때는, 프로그래밍 가이드 
(programming-guide.html)를 참조하십시오.
+    cd examples/cifar10/
+    cp Makefile.example Makefile
+    make download
+    make create
+
+Training 과 Test 데이터 세트는 각각 *cifar10-train-shard*
+그리고 *cifar10-test-shard* 폴더에 만들어집니다. 모든 
이미지의 특징 평균을 기술한 *image_mean.bin* 파일도 함께 
생성됩니다.
+
+CNN 모델 트레이닝에 필요한 소스코드는 모두 SINGA에 
포함되어 있습니다. 코드를 추가 할 필요는 없습니다.
+작업 설정 파일(*job.conf*) 을 지정하여 
스크립트(*../../bin/singa-run.sh*)를 실행합니다.
+SINGA 코드를 변경하거나 추가 할 경우는, 프로그래밍가이드 
(programming-guide.html)를 참조하십시오.
 
 #### 병렬화 없이 트레이닝
 
@@ -59,22 +59,22 @@ Cluster Topology의 기본ê°�
 
 트레이닝을 시작하기 위하여 다음 스크립트를 실행합니다.
 
-    # goto top level folder
-    cd ../../
-    ./bin/singa-run.sh -conf examples/cifar10/job.conf
+    # goto top level folder
+    cd ../../
+    ./bin/singa-run.sh -conf examples/cifar10/job.conf
 
 
 현재 실행중인 작업의 리스트를 보려면
 
-    ./bin/singa-console.sh list
+    ./bin/singa-console.sh list
 
-    JOB ID | NUM PROCS
-    ---------- | -----------
-    24 | 1
+    JOB ID     | NUM PROCS
+    ---------- | -----------
+    24         | 1
 
 작업을 종료하려면
 
-    ./bin/singa-console.sh kill JOB_ID
+    ./bin/singa-console.sh kill JOB_ID
 
 
 로그 및 작업 정보는 */tmp/singa-log* 폴더에 저장됩니다.
@@ -83,35 +83,35 @@ Cluster Topology의 기본ê°�
 
 #### 비동기 병렬 트레이닝
 
-    # job.conf
-    ...
-    cluster {
-      nworker_groups : 2
-      nworkers_per_procs : 2
-      workspace : "examples/cifar10/"
-    }
+    # job.conf
+    ...
+    cluster {
+      nworker_groups : 2
+      nworkers_per_procs : 2
+      workspace : "examples/cifar10/"
+    }
 
 여러 worker 그룹을 실행함으로써 [비동기 트ë 
ˆì´ë‹](architecture.html)을 할 수 있습니다.
 예를 들어, *job.conf* 을 위와 같이 변경합니다.
 기본적으로 하나의 worker 그룹이 하나의 worker를 갖도록 설ì 
•되어 있습니다.
-위의 설정은 하나의 프로세스에 2 개의 worker가 설정되어 
있기 때문에 2 개의 worker 그룹이 동일한 프로세스로 
실행됩니다.
+위의 설정은 하나의 프로세스에 2개의 worker가 설정되어 
있기 때문에 2개의 worker 그룹이 동일한 프로세스로 
실행됩니다.
 ê²°ê³¼ 인메모리 [Downpour](frameworks.html) 트레이닝 프ë 
ˆìž„워크로 실행됩니다.
 
 사용자는 데이터의 분산을 신경 쓸 필요는 없습니다.
 랜덤 오프셋에 따라 각 worker 그룹에 데이터가 보내집니다.
 각 worker는 다른 데이터 파티션을 담당합니다.
 
-    # job.conf
-    ...
-    neuralnet {
-      layer {
-        ...
-        sharddata_conf {
-          random_skip : 5000
-        }
-      }
-      ...
-    }
+    # job.conf
+    ...
+    neuralnet {
+      layer {
+        ...
+        sharddata_conf {
+          random_skip : 5000
+        }
+      }
+      ...
+    }
 
 스크립트 실행 :
 
@@ -119,33 +119,33 @@ Cluster Topology의 기본ê°�
 
 #### 동기화 병렬 트레이닝
 
-    # job.conf
-    ...
-    cluster {
-      nworkers_per_group : 2
-      nworkers_per_procs : 2
-      workspace : "examples/cifar10/"
-    }
+    # job.conf
+    ...
+    cluster {
+      nworkers_per_group : 2
+      nworkers_per_procs : 2
+      workspace : "examples/cifar10/"
+    }
 
 하나의 worker 그룹으로 여러 worker를 실행하여 [동기 트ë 
ˆì´ë‹](architecture.html)을 수행 할 수 있습니다.
 예를 들어, *job.conf* 파일을 위와 같이 변경합니다.
-위의 설정은 하나의 worker 그룹에 2 개의 worker가 설ì 
•되었습니다.
+위의 설정은 하나의 worker 그룹에 2개의 worker가 설ì 
•되었습니다.
 worker 들은 그룹 내에서 동기화합니다.
 이것은 인메모리 [sandblaster](frameworks.html)로 실행됩니다.
-모델은 2 개의 worker로 분할됩니다. 각 레이어가 2 개의 
worker로 분산됩니다.
+모델은 2개의 worker로 분할됩니다. 각 레이어가 2개의 
worker로 분산됩니다.
 배분 된 레이어는 원본 레이어와 기능은 같지만 특징 
인스턴스의 수가 `B / g` 로 됩니다.
 여기서 `B`는 미니밧치 인스턴스의 숫자로 `g`는 그룹의 
worker 수 입니다.
 [다른 스킴](neural-net.html)을 이용한 레이어 (뉴럴네트워크) 
파티션 방법도 있습니다.
 
 다른 설정들은 모두 "병렬화 없음"의 경우와 동일합니다.
 
-    ./bin/singa-run.sh -conf examples/cifar10/job.conf
+    ./bin/singa-run.sh -conf examples/cifar10/job.conf
 
 ### 클러스터에서의 트레이닝
 
 클러스터 설정을 변경하여 위 트레이닝 프레임워크를 
확장합니다.
 
-    nworker_per_procs : 1
+    nworker_per_procs : 1
 
 모든 프로세스는 하나의 worker 스레드를 생성합니다.
 결과 worker 우리는 다른 프로세스 (노드)에서 생성됩니다.
@@ -153,15 +153,15 @@ worker 들은 그룹 내�
 
 e.g.,
 
-    logbase-a01
-    logbase-a02
+    logbase-a01
+    logbase-a02
 
 zookeeper location도 설정해야합니다.
 
 e.g.,
 
-    # conf/singa.conf
-    zookeeper_host : "logbase-a01"
+    # conf/singa.conf
+    zookeeper_host : "logbase-a01"
 
 스크립트의 실행은 "Single 노드 트레이닝"과 동일합니다.
 

Modified: incubator/singa/site/trunk/content/markdown/docs/zh/index.md
URL: 
http://svn.apache.org/viewvc/incubator/singa/site/trunk/content/markdown/docs/zh/index.md?rev=1725860&r1=1725859&r2=1725860&view=diff
==============================================================================
--- incubator/singa/site/trunk/content/markdown/docs/zh/index.md (original)
+++ incubator/singa/site/trunk/content/markdown/docs/zh/index.md Thu Jan 21 
02:48:21 2016
@@ -3,5 +3,6 @@ SINGA 中文文档
 ---
 
 * [简介](overview.html)
+* [安装](installation_source.html)
 * [使用指南](programming-guide.html)
 



Reply via email to