Thanks to visit codestin.com
Credit goes to github.com

Skip to content

Commit 0ce6994

Browse files
authored
Merge pull request #621 from ifosch/traduccion-library-tokenize-po
Traducción de library/tokenize.po
2 parents d0c3538 + 723359e commit 0ce6994

File tree

2 files changed

+107
-18
lines changed

2 files changed

+107
-18
lines changed

dictionaries/library_tokenize.txt

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1 @@
1+
tokenización

library/tokenize.po

Lines changed: 106 additions & 18 deletions
Original file line numberDiff line numberDiff line change
@@ -6,27 +6,29 @@
66
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77
# get the list of volunteers
88
#
9-
#, fuzzy
109
msgid ""
1110
msgstr ""
1211
"Project-Id-Version: Python 3.8\n"
1312
"Report-Msgid-Bugs-To: \n"
1413
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date: YEAR-MO-DA HO:MI+ZONE\n"
16-
"Last-Translator: FULL NAME <EMAIL@ADDRESS>\n"
14+
"PO-Revision-Date: 2020-07-25 21:23+0200\n"
1715
"Language-Team: python-doc-es\n"
1816
"MIME-Version: 1.0\n"
19-
"Content-Type: text/plain; charset=utf-8\n"
17+
"Content-Type: text/plain; charset=UTF-8\n"
2018
"Content-Transfer-Encoding: 8bit\n"
2119
"Generated-By: Babel 2.8.0\n"
20+
"Plural-Forms: nplurals=2; plural=(n != 1);\n"
21+
"Last-Translator: Ignasi Fosch <[email protected]>\n"
22+
"Language: es\n"
23+
"X-Generator: Poedit 2.3.1\n"
2224

2325
#: ../Doc/library/tokenize.rst:2
2426
msgid ":mod:`tokenize` --- Tokenizer for Python source"
25-
msgstr ""
27+
msgstr ":mod:`tokenize` --- Conversor a tokens para código Python"
2628

2729
#: ../Doc/library/tokenize.rst:10
2830
msgid "**Source code:** :source:`Lib/tokenize.py`"
29-
msgstr ""
31+
msgstr "**Código fuente:** :source:`Lib/tokenize.py`"
3032

3133
#: ../Doc/library/tokenize.rst:14
3234
msgid ""
@@ -35,6 +37,10 @@ msgid ""
3537
"tokens as well, making it useful for implementing \"pretty-printers\", "
3638
"including colorizers for on-screen displays."
3739
msgstr ""
40+
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
41+
"Python, implementado en Python. Este analizador también retorna comentarios "
42+
"como tokens, siendo útil para implementar *\"pretty-printers\"*, como "
43+
"*colorizers* para impresiones en pantalla."
3844

3945
#: ../Doc/library/tokenize.rst:19
4046
msgid ""
@@ -44,14 +50,19 @@ msgid ""
4450
"checking the ``exact_type`` property on the :term:`named tuple` returned "
4551
"from :func:`tokenize.tokenize`."
4652
msgstr ""
53+
"Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
54+
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
55+
"retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56+
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
57+
"retornada por :func:`tokenize.tokenize`."
4758

4859
#: ../Doc/library/tokenize.rst:26
4960
msgid "Tokenizing Input"
50-
msgstr ""
61+
msgstr "Convirtiendo la entrada en *tokens*"
5162

5263
#: ../Doc/library/tokenize.rst:28
5364
msgid "The primary entry point is a :term:`generator`:"
54-
msgstr ""
65+
msgstr "El punto de entrada principal es un :term:`generador`:"
5566

5667
#: ../Doc/library/tokenize.rst:32
5768
msgid ""
@@ -60,6 +71,10 @@ msgid ""
6071
"IOBase.readline` method of file objects. Each call to the function should "
6172
"return one line of input as bytes."
6273
msgstr ""
74+
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
75+
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
76+
"IOBase.readline` de los objetos archivos. Cada llamada a la función debe "
77+
"retornar una línea de entrada como bytes."
6378

6479
#: ../Doc/library/tokenize.rst:37
6580
msgid ""
@@ -71,6 +86,14 @@ msgid ""
7186
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7287
"with the field names: ``type string start end line``."
7388
msgstr ""
89+
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
90+
"token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
91+
"especificando la fila y columna donde el token empieza en el código, una "
92+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
93+
"acaba en el código, y la línea en la que se encontró el token. La línea "
94+
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
95+
"retorna como una :term:`named tuple` con los campos: ``type string start end "
96+
"line``."
7497

7598
#: ../Doc/library/tokenize.rst:46
7699
msgid ""
@@ -79,57 +102,77 @@ msgid ""
79102
"tokens. For all other token types ``exact_type`` equals the named tuple "
80103
"``type`` field."
81104
msgstr ""
105+
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
106+
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
107+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+
"del campo ``type`` de la tupla con su respectivo nombre."
82109

83110
#: ../Doc/library/tokenize.rst:51
84111
msgid "Added support for named tuples."
85-
msgstr ""
112+
msgstr "Añadido soporte para tuplas con nombre."
86113

87114
#: ../Doc/library/tokenize.rst:54
88115
msgid "Added support for ``exact_type``."
89-
msgstr ""
116+
msgstr "Añadido soporte para ``exact_type``."
90117

91118
#: ../Doc/library/tokenize.rst:57
92119
msgid ""
93120
":func:`.tokenize` determines the source encoding of the file by looking for "
94121
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95122
msgstr ""
123+
":func:`tokenize` determina la codificación del fichero buscando una marca "
124+
"BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96125

97126
#: ../Doc/library/tokenize.rst:62
98127
msgid "Tokenize a source reading unicode strings instead of bytes."
99128
msgstr ""
129+
"Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
100130

101131
#: ../Doc/library/tokenize.rst:64
102132
msgid ""
103133
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104134
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105135
"return a str object rather than bytes."
106136
msgstr ""
137+
"Como :func:`.tokenize`, el argumento *readline* es un invocable que retorna "
138+
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
139+
"*readline* devuelva un objeto *str* en lugar de *bytes*."
107140

108141
#: ../Doc/library/tokenize.rst:68
109142
msgid ""
110143
"The result is an iterator yielding named tuples, exactly like :func:`."
111144
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112145
msgstr ""
146+
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
147+
"func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
113148

114149
#: ../Doc/library/tokenize.rst:71
115150
msgid ""
116151
"All constants from the :mod:`token` module are also exported from :mod:"
117152
"`tokenize`."
118153
msgstr ""
154+
"Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
155+
"`tokenize`."
119156

120157
#: ../Doc/library/tokenize.rst:74
121158
msgid ""
122159
"Another function is provided to reverse the tokenization process. This is "
123160
"useful for creating tools that tokenize a script, modify the token stream, "
124161
"and write back the modified script."
125162
msgstr ""
163+
"Otra función se encarga de invertir el proceso de conversión. Esto es útil "
164+
"para crear herramientas que convierten a tokens un script, modificar el "
165+
"flujo de token, y escribir el script modificado."
126166

127167
#: ../Doc/library/tokenize.rst:81
128168
msgid ""
129169
"Converts tokens back into Python source code. The *iterable* must return "
130170
"sequences with at least two elements, the token type and the token string. "
131171
"Any additional sequence elements are ignored."
132172
msgstr ""
173+
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
174+
"retornar secuencias con al menos dos elementos, el tipo de *token* y la "
175+
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133176

134177
#: ../Doc/library/tokenize.rst:85
135178
msgid ""
@@ -139,32 +182,50 @@ msgid ""
139182
"token type and token string as the spacing between tokens (column positions) "
140183
"may change."
141184
msgstr ""
185+
"El *script* reconstruido se retorna como una cadena simple. El resultado "
186+
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
187+
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
188+
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
189+
"cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
190+
"columna) pueden variar."
142191

143192
#: ../Doc/library/tokenize.rst:91
144193
msgid ""
145194
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146195
"the first token sequence output by :func:`.tokenize`. If there is no "
147196
"encoding token in the input, it returns a str instead."
148197
msgstr ""
198+
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+
"el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
200+
"hay un token de codificación en la entrada, retorna una cadena."
149201

150202
#: ../Doc/library/tokenize.rst:96
151203
msgid ""
152204
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153205
"The function it uses to do this is available:"
154206
msgstr ""
207+
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
208+
"que convierte a tokens. La función que utiliza para hacer esto está "
209+
"disponible como:"
155210

156211
#: ../Doc/library/tokenize.rst:101
157212
msgid ""
158213
"The :func:`detect_encoding` function is used to detect the encoding that "
159214
"should be used to decode a Python source file. It requires one argument, "
160215
"readline, in the same way as the :func:`.tokenize` generator."
161216
msgstr ""
217+
"La función :func:`detect_encoding` se usa para detectar la codificación que "
218+
"debería usarse al leer un fichero fuente Python. Requiere un argumento, "
219+
"*readline*, del mismo modo que el generador :func:`.tokenize`."
162220

163221
#: ../Doc/library/tokenize.rst:105
164222
msgid ""
165223
"It will call readline a maximum of twice, and return the encoding used (as a "
166224
"string) and a list of any lines (not decoded from bytes) it has read in."
167225
msgstr ""
226+
"Llamará a *readline* un máximo de dos veces, retornando la codificación "
227+
"usada, como cadena, y una lista del resto de líneas leídas, no "
228+
"descodificadas de *bytes*."
168229

169230
#: ../Doc/library/tokenize.rst:109
170231
msgid ""
@@ -173,83 +234,103 @@ msgid ""
173234
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174235
"found, ``'utf-8-sig'`` will be returned as an encoding."
175236
msgstr ""
237+
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
238+
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
239+
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
240+
"Resaltar que si se encuentra la marca BOM, se retornará ``'utf-8-sig'`` como "
241+
"codificación."
176242

177243
#: ../Doc/library/tokenize.rst:114
178244
msgid ""
179245
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180246
"returned."
181247
msgstr ""
248+
"Si no se especifica una codificación, por defecto se retornará ``'utf-8'``."
182249

183250
#: ../Doc/library/tokenize.rst:117
184251
msgid ""
185252
"Use :func:`.open` to open Python source files: it uses :func:"
186253
"`detect_encoding` to detect the file encoding."
187254
msgstr ""
255+
"Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
256+
"`detect_encoding` para detectar la codificación del fichero."
188257

189258
#: ../Doc/library/tokenize.rst:123
190259
msgid ""
191260
"Open a file in read only mode using the encoding detected by :func:"
192261
"`detect_encoding`."
193262
msgstr ""
263+
"Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
264+
"func:`detect_encoding`."
194265

195266
#: ../Doc/library/tokenize.rst:130
196267
msgid ""
197268
"Raised when either a docstring or expression that may be split over several "
198269
"lines is not completed anywhere in the file, for example::"
199270
msgstr ""
271+
"Lanzada cuando una expresión o docstring que puede separarse en más líneas "
272+
"no está completa en el fichero, por ejemplo::"
200273

201274
#: ../Doc/library/tokenize.rst:136
202275
msgid "or::"
203-
msgstr ""
276+
msgstr "o::"
204277

205278
#: ../Doc/library/tokenize.rst:142
206279
msgid ""
207280
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208281
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209282
"tokenization of their contents."
210283
msgstr ""
284+
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
285+
"Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
286+
"conversión de su contenido."
211287

212288
#: ../Doc/library/tokenize.rst:150
213289
msgid "Command-Line Usage"
214-
msgstr ""
290+
msgstr "Uso como línea de comandos"
215291

216292
#: ../Doc/library/tokenize.rst:154
217293
msgid ""
218294
"The :mod:`tokenize` module can be executed as a script from the command "
219295
"line. It is as simple as:"
220296
msgstr ""
297+
"El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
298+
"comandos. Es tan simple como:"
221299

222300
#: ../Doc/library/tokenize.rst:161
223301
msgid "The following options are accepted:"
224-
msgstr ""
302+
msgstr "Se aceptan las siguientes opciones:"
225303

226304
#: ../Doc/library/tokenize.rst:167
227305
msgid "show this help message and exit"
228-
msgstr ""
306+
msgstr "muestra el mensaje de ayuda y sale"
229307

230308
#: ../Doc/library/tokenize.rst:171
231309
msgid "display token names using the exact type"
232-
msgstr ""
310+
msgstr "muestra los nombres de token usando el tipo exacto"
233311

234312
#: ../Doc/library/tokenize.rst:173
235313
msgid ""
236314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237315
"Otherwise, tokenization is performed on stdin."
238316
msgstr ""
317+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+
"la salida estándar. En otro caso, se convierte la entrada estándar."
239319

240320
#: ../Doc/library/tokenize.rst:177
241321
msgid "Examples"
242-
msgstr ""
322+
msgstr "Ejemplos"
243323

244324
#: ../Doc/library/tokenize.rst:179
245325
msgid ""
246326
"Example of a script rewriter that transforms float literals into Decimal "
247327
"objects::"
248328
msgstr ""
329+
"Ejemplo de un script que transforma literales float en objetos Decimal::"
249330

250331
#: ../Doc/library/tokenize.rst:221
251332
msgid "Example of tokenizing from the command line. The script::"
252-
msgstr ""
333+
msgstr "Ejemplo de conversión desde la línea de comandos. El *script*::"
253334

254335
#: ../Doc/library/tokenize.rst:228
255336
msgid ""
@@ -258,18 +339,25 @@ msgid ""
258339
"column is the name of the token, and the final column is the value of the "
259340
"token (if any)"
260341
msgstr ""
342+
"se convertirá en la salida siguiente, donde la primera columna es el rango "
343+
"de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+
"es el nombre del token, y la última columna es el valor del token, si lo hay"
261345

262346
#: ../Doc/library/tokenize.rst:256
263347
msgid ""
264348
"The exact token type names can be displayed using the :option:`-e` option:"
265349
msgstr ""
350+
"Los nombres de tipos de token exactos se pueden mostrar con la opción :"
351+
"option:`-e`:"
266352

267353
#: ../Doc/library/tokenize.rst:282
268354
msgid ""
269355
"Example of tokenizing a file programmatically, reading unicode strings "
270356
"instead of bytes with :func:`generate_tokens`::"
271357
msgstr ""
358+
"Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+
"unicode en lugar de *bytes* con :func:`generate_tokens`::"
272360

273361
#: ../Doc/library/tokenize.rst:292
274362
msgid "Or reading bytes directly with :func:`.tokenize`::"
275-
msgstr ""
363+
msgstr "O leyendo *bytes* directamente con :func:`.tokenize`::"

0 commit comments

Comments
 (0)