Skip to content

Commit

Permalink
minor changes
Browse files Browse the repository at this point in the history
  • Loading branch information
thanhcsf committed Oct 11, 2021
1 parent 4f10f6d commit c39feba
Show file tree
Hide file tree
Showing 21 changed files with 1,623 additions and 1,500 deletions.
884 changes: 478 additions & 406 deletions 02_end_to_end_machine_learning_project.ipynb

Large diffs are not rendered by default.

624 changes: 311 additions & 313 deletions 09_unsupervised_learning.ipynb

Large diffs are not rendered by default.

90 changes: 45 additions & 45 deletions 10_neural_nets_with_keras.ipynb

Large diffs are not rendered by default.

126 changes: 63 additions & 63 deletions 11_training_deep_neural_networks.ipynb

Large diffs are not rendered by default.

164 changes: 82 additions & 82 deletions 12_custom_models_and_training_with_tensorflow.ipynb

Large diffs are not rendered by default.

106 changes: 53 additions & 53 deletions 13_loading_and_preprocessing_data.ipynb

Large diffs are not rendered by default.

96 changes: 48 additions & 48 deletions 14_deep_computer_vision_with_cnns.ipynb

Large diffs are not rendered by default.

145 changes: 74 additions & 71 deletions 15_processing_sequences_using_rnns_and_cnns.ipynb

Large diffs are not rendered by default.

70 changes: 35 additions & 35 deletions 16_nlp_with_rnns_and_attention.ipynb

Large diffs are not rendered by default.

536 changes: 268 additions & 268 deletions 17_autoencoders_and_gans.ipynb

Large diffs are not rendered by default.

61 changes: 31 additions & 30 deletions 18_reinforcement_learning.ipynb

Large diffs are not rendered by default.

16 changes: 8 additions & 8 deletions 19_training_and_deploying_at_scale.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -144,7 +144,7 @@
" keras.layers.Dense(10, activation=\"softmax\")\n",
"])\n",
"model.compile(loss=\"sparse_categorical_crossentropy\",\n",
" optimizer=keras.optimizers.SGD(lr=1e-2),\n",
" optimizer=keras.optimizers.SGD(learning_rate=1e-2),\n",
" metrics=[\"accuracy\"])\n",
"model.fit(X_train, y_train, epochs=10, validation_data=(X_valid, y_valid))"
],
Expand Down Expand Up @@ -919,7 +919,7 @@
" keras.layers.Dense(10, activation=\"softmax\")\n",
"])\n",
"model.compile(loss=\"sparse_categorical_crossentropy\",\n",
" optimizer=keras.optimizers.SGD(lr=1e-2),\n",
" optimizer=keras.optimizers.SGD(learning_rate=1e-2),\n",
" metrics=[\"accuracy\"])\n",
"history = model.fit(X_train, y_train, epochs=10, validation_data=(X_valid, y_valid))"
],
Expand Down Expand Up @@ -1351,7 +1351,7 @@
"batch_size = 100\n",
"model = create_model()\n",
"model.compile(loss=\"sparse_categorical_crossentropy\",\n",
" optimizer=keras.optimizers.SGD(lr=1e-2),\n",
" optimizer=keras.optimizers.SGD(learning_rate=1e-2),\n",
" metrics=[\"accuracy\"])\n",
"model.fit(X_train, y_train, epochs=10,\n",
" validation_data=(X_valid, y_valid), batch_size=batch_size)"
Expand Down Expand Up @@ -1428,7 +1428,7 @@
"with distribution.scope():\n",
" model = create_model()\n",
" model.compile(loss=\"sparse_categorical_crossentropy\",\n",
" optimizer=keras.optimizers.SGD(lr=1e-2),\n",
" optimizer=keras.optimizers.SGD(learning_rate=1e-2),\n",
" metrics=[\"accuracy\"])"
],
"outputs": [
Expand Down Expand Up @@ -1833,7 +1833,7 @@
" keras.layers.Dense(units=10, activation='softmax'),\n",
" ])\n",
" model.compile(loss=\"sparse_categorical_crossentropy\",\n",
" optimizer=keras.optimizers.SGD(lr=1e-2),\n",
" optimizer=keras.optimizers.SGD(learning_rate=1e-2),\n",
" metrics=[\"accuracy\"])\n",
"\n",
"model.fit(X_train, y_train, validation_data=(X_valid, y_valid),\n",
Expand Down Expand Up @@ -1919,9 +1919,6 @@
{
"output_type": "display_data",
"data": {
"text/plain": [
"<IPython.core.display.HTML object>"
],
"text/html": [
"\n",
" <iframe id=\"tensorboard-frame-5a57ac3228038e20\" width=\"100%\" height=\"800\" frameborder=\"0\">\n",
Expand All @@ -1938,6 +1935,9 @@
" })();\n",
" </script>\n",
" "
],
"text/plain": [
"<IPython.core.display.HTML object>"
]
},
"metadata": {}
Expand Down
7 changes: 4 additions & 3 deletions README.md
Original file line number Diff line number Diff line change
Expand Up @@ -5,9 +5,10 @@ và lời giải cho các bài tập trong cuốn sách **Thực hành Học Má
tác giả Aurélien Géron (ấn bản gốc được xuất bản bởi [O'Reilly](https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/)).

## Đặt sách
Vui lòng xem hướng dẫn tại https://handson-ml.mlbvn.org.
Hiện tại, chúng tôi đã phát hành Tập 1 của cuốn sách này, Tập 2 sẽ sớm được giới thiệu đến độc giả vào đầu năm 2022 (Dự kiến).
Để đặt sách, độc giả vui lòng xem hướng dẫn tại https://handson-ml.mlbvn.org.

Các thông tin về cuốn sách được cập nhật thường xuyên tại [Facebook page MLBVN](https://www.facebook.com/mlbvn.group).
Những thông tin về cuốn sách được cập nhật thường xuyên trên [Facebook Page của MLBVN](https://www.facebook.com/mlbvn.group).

## Bắt đầu

Expand Down Expand Up @@ -60,7 +61,7 @@ Nếu bạn cần thêm hướng dẫn, vui lòng đọc [hướng dẫn cài đ
### Bảng thuật ngữ
Các thuật ngữ trong cuốn sách được bổ sung và thảo luận [tại đây](./docs/glossary.md).

## Câu hỏi Thường gặp (FAQ)
## Câu hỏi Thường gặp (FAQs)

**Tôi nên sử dụng phiên bản Python nào?**

Expand Down
22 changes: 17 additions & 5 deletions datasets/housing/README.md
Original file line number Diff line number Diff line change
@@ -1,17 +1,29 @@
# California Housing

## Nguồn dữ liệu
Bộ dữ liệu này là phiên bản sửa đổi từ Bộ dữ liệu California Housing có sẵn trên website của [Luís Torgo's](http://www.dcc.fc.up.pt/~ltorgo/Regression/cal_housing.html) (Đại học Porto). Luís Torgo đã thu được bộ dữ liệu này từ kho chứa StatLib (bây giờ không còn nữa). Bộ dữ liệu này chỉ có thể tải xuống từ bản sao lưu StatLib.
Bộ dữ liệu này là phiên bản sửa đổi từ Bộ dữ liệu California Housing có sẵn trên website của
[Luís Torgo's](http://www.dcc.fc.up.pt/~ltorgo/Regression/cal_housing.html) (Đại học Porto).
Luís Torgo đã thu được bộ dữ liệu này từ kho chứa StatLib (bây giờ không còn nữa). Bộ dữ liệu
này chỉ có thể tải xuống từ bản sao lưu StatLib.

Bộ dữ liệu này xuất hiện trong một bài báo có tên là *Sparse Spatial Autoregressions* của Pace, R. Kelley và Ronald Barry; được xuất bản trên Tạp chí *Statistics and Probability Letters* năm 1997. Họ đã xây dựng nó bằng cách sử dụng bộ dữ liệu điều tra dân số California năm 1990. Nó chứa một hàng cho mỗi nhóm khối diều tra dân số. Nhóm khối là đơn vị địa lý nhỏ nhất mà Cục điều tra dân số Hoa công bố trên dữ liệu mẫu (một nhóm khối thường có dân số từ 600 đến 3,000 người).
Bộ dữ liệu này xuất hiện trong một bài báo có tên là *Sparse Spatial Autoregressions* của
Pace, R. Kelley và Ronald Barry; được xuất bản trên Tạp chí *Statistics and Probability Letters*
năm 1997. Họ đã xây dựng nó bằng cách sử dụng bộ dữ liệu điều tra dân số California năm 1990.
Nó chứa một hàng cho mỗi nhóm khối diều tra dân số. Nhóm khối là đơn vị địa lý nhỏ nhất mà Cục
điều tra dân số Hoa công bố trên dữ liệu mẫu (một nhóm khối thường có dân số từ 600 đến 3,000 người).

## Tinh chỉnh
Bộ dữ liệu trong thư mục này gần giống với bản gốc, với hai điểm khác biệt sau:

* 207 giá trị được xoá ngẫu nhiên khỏi cột `total_bedrooms`, điều này là để chúng ta có thể thảo luận về những việc cần làm với những dữ liệu bị thiếu.
* Một thuộc tính phân loại bổ sung gọi là `ocean_proximity` đã được thêm vào, biểu thị (một cách chung chung) về nhóm khối ở gần đại dương (ocean), gần khu vực Vịnh (Bay), trong nội địa (Inland) hoặc trên một hòn đảo (Island). Điều này cho phép ta thảo luận về những việc cần làm với các dữ liệu phân loại.
* 207 giá trị được xoá ngẫu nhiên khỏi cột `total_bedrooms`, điều này là để chúng ta có thể
thảo luận về những việc cần làm với những dữ liệu bị thiếu.
* Một thuộc tính phân loại bổ sung gọi là `ocean_proximity` đã được thêm vào, biểu thị (một
cách chung chung) về nhóm khối ở gần đại dương (ocean), gần khu vực Vịnh (Bay), trong nội địa
(Inland) hoặc trên một hòn đảo (Island). Điều này cho phép ta thảo luận về những việc cần làm
với các dữ liệu phân loại.

Lưu ý rằng các nhóm khối được gọi là "districts" (quận) ở trong Jupyter Notebooks, vì trong một số bối cảnh tên này có thể gây nhầm lẫn.
Lưu ý rằng các nhóm khối được gọi là "districts" (quận) ở trong Jupyter Notebooks, vì trong
một số bối cảnh tên này có thể gây nhầm lẫn.

## Mô tả Dữ liệu

Expand Down
29 changes: 16 additions & 13 deletions datasets/jsb_chorales/README.md
Original file line number Diff line number Diff line change
@@ -1,24 +1,29 @@
# Johann Sebastian Bach Chorales Dataset
# Bộ dữ liệu Johann Sebastian Bach (JSB) Chorales

## Source
This dataset contains 382 chorales by Johann Sebastian Bach (in the public domain), where each chorale is composed of 100 to 640 chords with a temporal resolution of 1/16th. Each chord is composed of 4 integers, each indicating the index of a note on a piano, except for the value 0 which means "no note played".
## Nguồn dữ liệu
This dataset contains 382 chorales by Johann Sebastian Bach (in the public domain), where each chorale
is composed of 100 to 640 chords with a temporal resolution of 1/16th. Each chord is composed of 4 integers,
each indicating the index of a note on a piano, except for the value 0 which means "no note played".

This dataset is based on [czhuang's JSB-Chorales-dataset](https://github.com/czhuang/JSB-Chorales-dataset/blob/master/README.md) (`Jsb16thSeparated.npz`) which used the train, validation, test split from Boulanger-Lewandowski (2012).
This dataset is based on [czhuang's JSB-Chorales-dataset](https://github.com/czhuang/JSB-Chorales-dataset/)
(`Jsb16thSeparated.npz`) which used the train, validation, test split from Boulanger-Lewandowski (2012).

Motivation: I thought it would be nice to have a version of this dataset in CSV format.

## Reference
Boulanger-Lewandowski, N., Vincent, P., & Bengio, Y. (2012). Modeling Temporal Dependencies in High-Dimensional Sequences: Application to Polyphonic Music Generation and Transcription. Proceedings of the 29th International Conference on Machine Learning (ICML-12), 1159–1166.
## Thông tin Tham khả
Boulanger-Lewandowski, N., Vincent, P., & Bengio, Y. (2012). Modeling Temporal Dependencies in
High-Dimensional Sequences: Application to Polyphonic Music Generation and Transcription.
Proceedings of the 29th International Conference on Machine Learning (ICML-12), 1159–1166.

## Usage
Download `jsb_chorales.tgz` and untar it:
## Sử dụng
Tải tệp tin `jsb_chorales.tgz` và giải nén nó:

```bash
$ tar xvzf jsb_chorales.tgz
```

## Data structure
The dataset is split in three (train, valid, test), with a total of 382 CSV files:
## Cấu trúc Dữ liệu
Dữ liệu được chia thành ba thư mục (train, valid, test), với 382 tệp tin CSV:

```
$ tree
Expand Down Expand Up @@ -46,7 +51,7 @@ $ tree
   └── chorale_381.csv
```

## Data sample
## Dữ liệu Mẫu

```
$ head train/chorale_000.csv
Expand All @@ -61,5 +66,3 @@ note0,note1,note2,note3
75,70,60,55
77,69,62,50
```

Enjoy!
8 changes: 4 additions & 4 deletions datasets/lifesat/README.md
Original file line number Diff line number Diff line change
@@ -1,9 +1,9 @@
# Life satisfaction and GDP per capita
## Life satisfaction
### Source
### Nguồn dữ liệu
This dataset was obtained from the OECD's website at: http://stats.oecd.org/index.aspx?DataSetCode=BLI

### Data description
### Mô tả Dữ liệu

Int64Index: 3292 entries, 0 to 3291
Data columns (total 17 columns):
Expand Down Expand Up @@ -67,10 +67,10 @@ This dataset was obtained from the OECD's website at: http://stats.oecd.org/inde
memory usage: 7.2+ KB

## GDP per capita
### Source
### Nguồn dữ liệu
Dataset obtained from the IMF's website at: http://goo.gl/j1MSKe

### Data description
### Mô tả Dữ liệu

Int64Index: 190 entries, 0 to 189
Data columns (total 7 columns):
Expand Down
Loading

0 comments on commit c39feba

Please sign in to comment.