6
6
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
7
7
# get the list of volunteers
8
8
#
9
- #, fuzzy
10
9
msgid ""
11
10
msgstr ""
12
11
"Project-Id-Version : Python 3.8\n "
13
12
"Report-Msgid-Bugs-To : \n "
14
13
"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15
- "PO-Revision-Date : YEAR-MO-DA HO:MI+ZONE\n "
16
- "Last-Translator : FULL NAME <EMAIL@ADDRESS>\n "
14
+ "PO-Revision-Date : 2020-07-25 21:23+0200\n "
17
15
"Language-Team : python-doc-es\n "
18
16
"MIME-Version : 1.0\n "
19
- "Content-Type : text/plain; charset=utf -8\n "
17
+ "Content-Type : text/plain; charset=UTF -8\n "
20
18
"Content-Transfer-Encoding : 8bit\n "
21
19
"Generated-By : Babel 2.8.0\n "
20
+ "Plural-Forms : nplurals=2; plural=(n != 1);\n "
21
+ "
Last-Translator :
Ignasi Fosch <[email protected] >\n "
22
+ "Language : es\n "
23
+ "X-Generator : Poedit 2.3.1\n "
22
24
23
25
#: ../Doc/library/tokenize.rst:2
24
26
msgid ":mod:`tokenize` --- Tokenizer for Python source"
25
- msgstr ""
27
+ msgstr ":mod:`tokenize` --- Conversor a tokens para código Python "
26
28
27
29
#: ../Doc/library/tokenize.rst:10
28
30
msgid "**Source code:** :source:`Lib/tokenize.py`"
29
- msgstr ""
31
+ msgstr "**Código fuente:** :source:`Lib/tokenize.py` "
30
32
31
33
#: ../Doc/library/tokenize.rst:14
32
34
msgid ""
@@ -35,6 +37,10 @@ msgid ""
35
37
"tokens as well, making it useful for implementing \" pretty-printers\" , "
36
38
"including colorizers for on-screen displays."
37
39
msgstr ""
40
+ "El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
41
+ "Python, implementado en Python. Este analizador también retorna comentarios "
42
+ "como tokens, siendo útil para implementar *\" pretty-printers\" *, como "
43
+ "*colorizers* para impresiones en pantalla."
38
44
39
45
#: ../Doc/library/tokenize.rst:19
40
46
msgid ""
@@ -44,14 +50,19 @@ msgid ""
44
50
"checking the ``exact_type`` property on the :term:`named tuple` returned "
45
51
"from :func:`tokenize.tokenize`."
46
52
msgstr ""
53
+ "Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
54
+ "`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
55
+ "retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56
+ "determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
57
+ "retornada por :func:`tokenize.tokenize`."
47
58
48
59
#: ../Doc/library/tokenize.rst:26
49
60
msgid "Tokenizing Input"
50
- msgstr ""
61
+ msgstr "Convirtiendo la entrada en *tokens* "
51
62
52
63
#: ../Doc/library/tokenize.rst:28
53
64
msgid "The primary entry point is a :term:`generator`:"
54
- msgstr ""
65
+ msgstr "El punto de entrada principal es un :term:`generador`: "
55
66
56
67
#: ../Doc/library/tokenize.rst:32
57
68
msgid ""
@@ -60,6 +71,10 @@ msgid ""
60
71
"IOBase.readline` method of file objects. Each call to the function should "
61
72
"return one line of input as bytes."
62
73
msgstr ""
74
+ "El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
75
+ "ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
76
+ "IOBase.readline` de los objetos archivos. Cada llamada a la función debe "
77
+ "retornar una línea de entrada como bytes."
63
78
64
79
#: ../Doc/library/tokenize.rst:37
65
80
msgid ""
@@ -71,6 +86,14 @@ msgid ""
71
86
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
72
87
"with the field names: ``type string start end line``."
73
88
msgstr ""
89
+ "El generador produce una tupla con los siguientes 5 miembros: El tipo de "
90
+ "token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
91
+ "especificando la fila y columna donde el token empieza en el código, una "
92
+ "``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
93
+ "acaba en el código, y la línea en la que se encontró el token. La línea "
94
+ "pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
95
+ "retorna como una :term:`named tuple` con los campos: ``type string start end "
96
+ "line``."
74
97
75
98
#: ../Doc/library/tokenize.rst:46
76
99
msgid ""
@@ -79,57 +102,77 @@ msgid ""
79
102
"tokens. For all other token types ``exact_type`` equals the named tuple "
80
103
"``type`` field."
81
104
msgstr ""
105
+ "La :term:`named tuple` retorna tiene una propiedad adicional llamada "
106
+ "``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
107
+ "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108
+ "del campo ``type`` de la tupla con su respectivo nombre."
82
109
83
110
#: ../Doc/library/tokenize.rst:51
84
111
msgid "Added support for named tuples."
85
- msgstr ""
112
+ msgstr "Añadido soporte para tuplas con nombre. "
86
113
87
114
#: ../Doc/library/tokenize.rst:54
88
115
msgid "Added support for ``exact_type``."
89
- msgstr ""
116
+ msgstr "Añadido soporte para ``exact_type``. "
90
117
91
118
#: ../Doc/library/tokenize.rst:57
92
119
msgid ""
93
120
":func:`.tokenize` determines the source encoding of the file by looking for "
94
121
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95
122
msgstr ""
123
+ ":func:`tokenize` determina la codificación del fichero buscando una marca "
124
+ "BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96
125
97
126
#: ../Doc/library/tokenize.rst:62
98
127
msgid "Tokenize a source reading unicode strings instead of bytes."
99
128
msgstr ""
129
+ "Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
100
130
101
131
#: ../Doc/library/tokenize.rst:64
102
132
msgid ""
103
133
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104
134
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105
135
"return a str object rather than bytes."
106
136
msgstr ""
137
+ "Como :func:`.tokenize`, el argumento *readline* es un invocable que retorna "
138
+ "una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
139
+ "*readline* devuelva un objeto *str* en lugar de *bytes*."
107
140
108
141
#: ../Doc/library/tokenize.rst:68
109
142
msgid ""
110
143
"The result is an iterator yielding named tuples, exactly like :func:`."
111
144
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112
145
msgstr ""
146
+ "El resultado es un iterador que produce tuplas con nombre, exactamente como :"
147
+ "func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
113
148
114
149
#: ../Doc/library/tokenize.rst:71
115
150
msgid ""
116
151
"All constants from the :mod:`token` module are also exported from :mod:"
117
152
"`tokenize`."
118
153
msgstr ""
154
+ "Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
155
+ "`tokenize`."
119
156
120
157
#: ../Doc/library/tokenize.rst:74
121
158
msgid ""
122
159
"Another function is provided to reverse the tokenization process. This is "
123
160
"useful for creating tools that tokenize a script, modify the token stream, "
124
161
"and write back the modified script."
125
162
msgstr ""
163
+ "Otra función se encarga de invertir el proceso de conversión. Esto es útil "
164
+ "para crear herramientas que convierten a tokens un script, modificar el "
165
+ "flujo de token, y escribir el script modificado."
126
166
127
167
#: ../Doc/library/tokenize.rst:81
128
168
msgid ""
129
169
"Converts tokens back into Python source code. The *iterable* must return "
130
170
"sequences with at least two elements, the token type and the token string. "
131
171
"Any additional sequence elements are ignored."
132
172
msgstr ""
173
+ "Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
174
+ "retornar secuencias con al menos dos elementos, el tipo de *token* y la "
175
+ "cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133
176
134
177
#: ../Doc/library/tokenize.rst:85
135
178
msgid ""
@@ -139,32 +182,50 @@ msgid ""
139
182
"token type and token string as the spacing between tokens (column positions) "
140
183
"may change."
141
184
msgstr ""
185
+ "El *script* reconstruido se retorna como una cadena simple. El resultado "
186
+ "está garantizado de que se convierte en *tokens* de vuelta a la misma "
187
+ "entrada, de modo que la conversión no tiene pérdida y que las conversiones "
188
+ "de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
189
+ "cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
190
+ "columna) pueden variar."
142
191
143
192
#: ../Doc/library/tokenize.rst:91
144
193
msgid ""
145
194
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146
195
"the first token sequence output by :func:`.tokenize`. If there is no "
147
196
"encoding token in the input, it returns a str instead."
148
197
msgstr ""
198
+ "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199
+ "el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
200
+ "hay un token de codificación en la entrada, retorna una cadena."
149
201
150
202
#: ../Doc/library/tokenize.rst:96
151
203
msgid ""
152
204
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153
205
"The function it uses to do this is available:"
154
206
msgstr ""
207
+ ":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
208
+ "que convierte a tokens. La función que utiliza para hacer esto está "
209
+ "disponible como:"
155
210
156
211
#: ../Doc/library/tokenize.rst:101
157
212
msgid ""
158
213
"The :func:`detect_encoding` function is used to detect the encoding that "
159
214
"should be used to decode a Python source file. It requires one argument, "
160
215
"readline, in the same way as the :func:`.tokenize` generator."
161
216
msgstr ""
217
+ "La función :func:`detect_encoding` se usa para detectar la codificación que "
218
+ "debería usarse al leer un fichero fuente Python. Requiere un argumento, "
219
+ "*readline*, del mismo modo que el generador :func:`.tokenize`."
162
220
163
221
#: ../Doc/library/tokenize.rst:105
164
222
msgid ""
165
223
"It will call readline a maximum of twice, and return the encoding used (as a "
166
224
"string) and a list of any lines (not decoded from bytes) it has read in."
167
225
msgstr ""
226
+ "Llamará a *readline* un máximo de dos veces, retornando la codificación "
227
+ "usada, como cadena, y una lista del resto de líneas leídas, no "
228
+ "descodificadas de *bytes*."
168
229
169
230
#: ../Doc/library/tokenize.rst:109
170
231
msgid ""
@@ -173,83 +234,103 @@ msgid ""
173
234
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174
235
"found, ``'utf-8-sig'`` will be returned as an encoding."
175
236
msgstr ""
237
+ "Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
238
+ "una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
239
+ "están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
240
+ "Resaltar que si se encuentra la marca BOM, se retornará ``'utf-8-sig'`` como "
241
+ "codificación."
176
242
177
243
#: ../Doc/library/tokenize.rst:114
178
244
msgid ""
179
245
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180
246
"returned."
181
247
msgstr ""
248
+ "Si no se especifica una codificación, por defecto se retornará ``'utf-8'``."
182
249
183
250
#: ../Doc/library/tokenize.rst:117
184
251
msgid ""
185
252
"Use :func:`.open` to open Python source files: it uses :func:"
186
253
"`detect_encoding` to detect the file encoding."
187
254
msgstr ""
255
+ "Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
256
+ "`detect_encoding` para detectar la codificación del fichero."
188
257
189
258
#: ../Doc/library/tokenize.rst:123
190
259
msgid ""
191
260
"Open a file in read only mode using the encoding detected by :func:"
192
261
"`detect_encoding`."
193
262
msgstr ""
263
+ "Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
264
+ "func:`detect_encoding`."
194
265
195
266
#: ../Doc/library/tokenize.rst:130
196
267
msgid ""
197
268
"Raised when either a docstring or expression that may be split over several "
198
269
"lines is not completed anywhere in the file, for example::"
199
270
msgstr ""
271
+ "Lanzada cuando una expresión o docstring que puede separarse en más líneas "
272
+ "no está completa en el fichero, por ejemplo::"
200
273
201
274
#: ../Doc/library/tokenize.rst:136
202
275
msgid "or::"
203
- msgstr ""
276
+ msgstr "o:: "
204
277
205
278
#: ../Doc/library/tokenize.rst:142
206
279
msgid ""
207
280
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208
281
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209
282
"tokenization of their contents."
210
283
msgstr ""
284
+ "Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
285
+ "Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
286
+ "conversión de su contenido."
211
287
212
288
#: ../Doc/library/tokenize.rst:150
213
289
msgid "Command-Line Usage"
214
- msgstr ""
290
+ msgstr "Uso como línea de comandos "
215
291
216
292
#: ../Doc/library/tokenize.rst:154
217
293
msgid ""
218
294
"The :mod:`tokenize` module can be executed as a script from the command "
219
295
"line. It is as simple as:"
220
296
msgstr ""
297
+ "El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
298
+ "comandos. Es tan simple como:"
221
299
222
300
#: ../Doc/library/tokenize.rst:161
223
301
msgid "The following options are accepted:"
224
- msgstr ""
302
+ msgstr "Se aceptan las siguientes opciones: "
225
303
226
304
#: ../Doc/library/tokenize.rst:167
227
305
msgid "show this help message and exit"
228
- msgstr ""
306
+ msgstr "muestra el mensaje de ayuda y sale "
229
307
230
308
#: ../Doc/library/tokenize.rst:171
231
309
msgid "display token names using the exact type"
232
- msgstr ""
310
+ msgstr "muestra los nombres de token usando el tipo exacto "
233
311
234
312
#: ../Doc/library/tokenize.rst:173
235
313
msgid ""
236
314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237
315
"Otherwise, tokenization is performed on stdin."
238
316
msgstr ""
317
+ "Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318
+ "la salida estándar. En otro caso, se convierte la entrada estándar."
239
319
240
320
#: ../Doc/library/tokenize.rst:177
241
321
msgid "Examples"
242
- msgstr ""
322
+ msgstr "Ejemplos "
243
323
244
324
#: ../Doc/library/tokenize.rst:179
245
325
msgid ""
246
326
"Example of a script rewriter that transforms float literals into Decimal "
247
327
"objects::"
248
328
msgstr ""
329
+ "Ejemplo de un script que transforma literales float en objetos Decimal::"
249
330
250
331
#: ../Doc/library/tokenize.rst:221
251
332
msgid "Example of tokenizing from the command line. The script::"
252
- msgstr ""
333
+ msgstr "Ejemplo de conversión desde la línea de comandos. El *script*:: "
253
334
254
335
#: ../Doc/library/tokenize.rst:228
255
336
msgid ""
@@ -258,18 +339,25 @@ msgid ""
258
339
"column is the name of the token, and the final column is the value of the "
259
340
"token (if any)"
260
341
msgstr ""
342
+ "se convertirá en la salida siguiente, donde la primera columna es el rango "
343
+ "de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344
+ "es el nombre del token, y la última columna es el valor del token, si lo hay"
261
345
262
346
#: ../Doc/library/tokenize.rst:256
263
347
msgid ""
264
348
"The exact token type names can be displayed using the :option:`-e` option:"
265
349
msgstr ""
350
+ "Los nombres de tipos de token exactos se pueden mostrar con la opción :"
351
+ "option:`-e`:"
266
352
267
353
#: ../Doc/library/tokenize.rst:282
268
354
msgid ""
269
355
"Example of tokenizing a file programmatically, reading unicode strings "
270
356
"instead of bytes with :func:`generate_tokens`::"
271
357
msgstr ""
358
+ "Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359
+ "unicode en lugar de *bytes* con :func:`generate_tokens`::"
272
360
273
361
#: ../Doc/library/tokenize.rst:292
274
362
msgid "Or reading bytes directly with :func:`.tokenize`::"
275
- msgstr ""
363
+ msgstr "O leyendo *bytes* directamente con :func:`.tokenize`:: "
0 commit comments