logo

TensorBoard

TensorFlow er et visualiseringsværktøj, som kaldes TensorBoard. Det bruges til at analysere dataflowgrafen og bruges til at forstå maskinlæringsmodeller. TensorBoard er grænsefladen, der bruges til at visualisere grafen og mange værktøjer til at forstå, fejlfinde og optimere modellen.

Den vigtige egenskab ved TensorBoard er, at den indeholder en visning af forskellige typer statistik om parametrene og detaljerne i enhver graf i en lodret justering.

hvordan man læser csv-filen i java

Det dybe neurale netværk omfatter op til 36.000 noder. TensorFlow hjælper med at kollapse disse noder i høj grad med at kollapse disse noder i højniveaublokke og fremhæve de identiske strukturer. Dette muliggør bedre analyse af grafen med fokus på de primære sektioner af beregningsgrafen.

TensorBoard

TensorBoard-visualiseringen siges at være meget interaktiv, hvor en bruger kan panorere, zoome og udvide noderne for at vise detaljerne.

Følgende er den givne diagramrepræsentation viser den komplette funktion af TensorBoard visualisering-

TensorBoard

Algoritmerne kollapser noderne i højniveaublokke og fremhævede de specifikke grupper med identiske strukturer, som adskiller højgradsknuderne. Det oprettede TensorBoard er nyttigt og behandles lige så vigtigt for tuning af en maskinlæringsmodel. Dette visualiseringsværktøj er designet til konfigurationslogfilen.

Se på billedet herunder:

TensorBoard

Et neuralt netværk bestemmer, hvordan de forskellige ' neuroner ' og hvor mange lag før modellen kan forudsige resultatet. Når vi har defineret arkitekturen, skal vi ikke kun træne modellen, men også målinger for at beregne nøjagtigheden af ​​forudsigelsen. Denne metrik omtales som en tabsfunktion. Målet er at som en tabsfunktion.

TensorBoard er et fantastisk værktøj til at visualisere metrics og fremhæve de potentielle problemer. Det neurale netværk kan tage timer til uger, før de finder en løsning. TensorBoard opdaterer parametrene meget ofte.

TensorBoard er placeret i denne URL: http://localhost:6006

Typer af DashBoard i TensorBoard

TensorBoard

1. Skalar Dashboard

Det bruges til at visualisere tidsafhængig statistik; for eksempel vil vi måske se på variationerne i indlæringsraten eller tabsfunktionen.

2. Histogram

Histogram Dashboard i TensorBoard viser, hvordan den statistiske fordeling af en Tensor har varieret over tid. Den visualiserer data optaget via tf.resumé.histogram .

python sort tuple

3. Distribution Dashboard

Det viser en vis brug af på højt niveau tf.resumé.histogram . Det viser nogle starter på højt niveau på en distribution. Hver linje på diagrammet giver et hint om percentilen i fordelingen over dataene.

4. Billedkontrolpanel

Dette viser den png, der blev gemt via en tf.summary.image . Rækker svarer til etiketterne og kolonnerne til kørslen. Ved at bruge dette billeddashboard fra TensorBoard kan vi integrere tilpassede visualiseringer.

5. Lyd Dashboard

Det er et fremragende værktøj til at indlejre spilbare lydwidgets til lydfiler, der er gemt via en tf.summary.audio . Dashboardet indlejrer altid den nyeste lyd for hvert tag.

6. Graph Explorer

Det bruges primært til at muliggøre inspektion af TensorFlow-modellen.

7. Projektor

Indlejringsprojektoren i TensorFlow bruges til multidimensionelle data. Den indlejrede projektor læser data fra kontrolpunktfilen og kan være sat op med tilsvarende data, såsom en ordforrådsfil.

8. Tekst Dashboard

Tekst Dashboard viser teksteksperter gemt via tf.summary.text. , omfatter funktioner som hyperlinks, lister og tabeller, er alle understøttet.

TensorBoard

Forskellige visninger af TensorBoard

Forskellige visninger tager input af forskellige formater og viser dem forskelligt. Vi kan ændre dem på den orange øverste bjælke.

    Skalarer-Visualiser skalære værdier, såsom klassificeringsnøjagtighed.Kurve-Visualiser beregningsgrafen for vores model, ligesom den neurale netværksmodel.Distribution-Visualiser, hvordan data ændrer sig over tid, såsom vægten af ​​et neuralt netværk.Histogrammer-En mere avanceret visning af fordelingen, der viser en fordeling, der viser fordelinger i et 3-dimensionelt perspektiv.projektor-Det kan bruges til at visualisere ordindlejringer (det vil sige, ordindlejring er numeriske repræsentationer af ord, der fanger deres semantiske relationer)Billede-Visualisering af billeddatalyd-Visualisering af lyddataTekst-Visualisering af tekstdata

Hvordan bruger man TensorBoard?

Vi lærer, hvordan du åbner TensorBoard fra terminalen til MacOS og kommandolinje Windows.

Koden vil blive forklaret i en fremtidig tutorial; fokus her er på TensorBoard.

Først skal vi importere de biblioteker, vi vil bruge under træningen.

 ## Import the library import tensorflow as tf import numpy as np 

Vi opretter dataene. Det er en matrix med 10000 rækker og kolonner/p>

 X_train = (np.random.sample((10000,5))) y_train = (np.random.sample((10000,1))) X_train.shape 

hvis ellers java

Nedenstående kode transformerer dataene og lav modellen.

Bemærk, at indlæringsraten er lig med 0,1. Hvis vi ændrer denne sats til en højere værdi, vil modellen ikke finde en løsning. Dette er, hvad der skete i venstre side af ovenstående billede.

I eksemplet nedenfor gemmer vi modellen inde i arbejdsbiblioteket, dvs. hvor vi gemmer notebook- eller pythonfilen. Inde i stien opretter TensorFlow en mappe kaldet tog med et underordnet mappenavn linreg.

 feature_columns = [ tf.feature_column.numeric_column('x', shape=X_train.shape[1:])] DNN_reg = tf.estimator.DNNRegressor(feature_columns=feature_columns, # Indicate where to store the log file model_dir='train', hidden_units=[500, 300], optimizer=tf.train.ProximalAdagradOptimizer( learning_rate=0.1, l1_regularization_strength=0.001 ) ) 

Produktion:

 INFO:tensorflow:Using the default configuration. INFO:tensorflow:Using config:{'_model_dir': 'train/linreg', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_service': None, '_cluster_spec': , '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} 

Det sidste trin består i at træne modellen. I løbet af træningsperioden skriver TensorFlow information i modelkartoteket.

 # Train the estimator train_input = tf.estimator.inputs.numpy_input_fn( x={'x': X_train}, y=y_train, shuffle=False,num_epochs=None) DNN_reg.train(train_input,steps=3000) 

Produktion:

 INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow: Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Saving checkpoints for 1 into train/linreg/model.ckpt. INFO:tensorflow:loss = 40.060104, step = 1 INFO:tensorflow:global_step/sec: 197.061 INFO:tensorflow:loss = 10.62989, step = 101 (0.508 sec) INFO:tensorflow:global_step/sec: 172.487 INFO:tensorflow:loss = 11.255318, step = 201 (0.584 sec) INFO:tensorflow:global_step/sec: 193.295 INFO:tensorflow:loss = 10.604872, step = 301 (0.513 sec) INFO:tensorflow:global_step/sec: 175.378 INFO:tensorflow:loss = 10.090343, step = 401 (0.572 sec) INFO:tensorflow:global_step/sec: 209.737 INFO:tensorflow:loss = 10.057928, step = 501 (0.476 sec) INFO:tensorflow:global_step/sec: 171.646 INFO:tensorflow:loss = 10.460144, step = 601 (0.583 sec) INFO:tensorflow:global_step/sec: 192.269 INFO:tensorflow:loss = 10.529617, step = 701 (0.519 sec) INFO:tensorflow:global_step/sec: 198.264 INFO:tensorflow:loss = 9.100082, step = 801 (0.504 sec) INFO:tensorflow:global_step/sec: 226.842 INFO:tensorflow:loss = 10.485607, step = 901 (0.441 sec) INFO:tensorflow:global_step/sec: 152.929 INFO:tensorflow:loss = 10.052481, step = 1001 (0.655 sec) INFO:tensorflow:global_step/sec: 166.745 INFO:tensorflow:loss = 11.320213, step = 1101 (0.600 sec) INFO:tensorflow:global_step/sec: 161.854 INFO:tensorflow:loss = 9.603306, step = 1201 (0.619 sec) INFO:tensorflow:global_step/sec: 179.074 INFO:tensorflow:loss = 11.110269, step = 1301 (0.556 sec) INFO:tensorflow:global_step/sec: 202.776 INFO:tensorflow:loss = 11.929443, step = 1401 (0.494 sec) INFO:tensorflow:global_step/sec: 144.161 INFO:tensorflow:loss = 11.951693, step = 1501 (0.694 sec) INFO:tensorflow:global_step/sec: 154.144 INFO:tensorflow:loss = 8.620987, step = 1601 (0.649 sec) INFO:tensorflow:global_step/sec: 151.094 INFO:tensorflow:loss = 10.666125, step = 1701 (0.663 sec) INFO:tensorflow:global_step/sec: 193.644 INFO:tensorflow:loss = 11.0349865, step = 1801 (0.516 sec) INFO:tensorflow:global_step/sec: 189.707 INFO:tensorflow:loss = 9.860596, step = 1901 (0.526 sec) INFO:tensorflow:global_step/sec: 176.423 INFO:tensorflow:loss = 10.695, step = 2001 (0.567 sec) INFO:tensorflow:global_step/sec: 213.066 INFO:tensorflow:loss = 10.426752, step = 2101 (0.471 sec) INFO:tensorflow:global_step/sec: 220.975 INFO:tensorflow:loss = 10.594796, step = 2201 (0.452 sec) INFO:tensorflow:global_step/sec: 219.289 INFO:tensorflow:loss = 10.4212265, step = 2301 (0.456 sec) INFO:tensorflow:global_step/sec: 215.123 INFO:tensorflow:loss = 9.668612, step = 2401 (0.465 sec) INFO:tensorflow:global_step/sec: 175.65 INFO:tensorflow:loss = 10.009649, step = 2501 (0.569 sec) INFO:tensorflow:global_step/sec: 206.962 INFO:tensorflow:loss = 10.477722, step = 2601 (0.483 sec) INFO:tensorflow:global_step/sec: 229.627 INFO:tensorflow:loss = 9.877638, step = 2701 (0.435 sec) INFO:tensorflow:global_step/sec: 195.792 INFO:tensorflow:loss = 10.274586, step = 2801 (0.512 sec) INFO:tensorflow:global_step/sec: 176.803 INFO:tensorflow:loss = 10.061047, step = 2901 (0.566 sec) INFO:tensorflow:Saving checkpoints for 3000 into train/linreg/model.ckpt. INFO:tensorflow: Loss for the final step: 10.73032. 

For Windows-brugere

 cd C:UsersAdminAnaconda3 activate hello-tf 

For at starte TensorBoard kan vi bruge denne kode

 tensorboard --logdir=.	rainlinreg