Thanks to visit codestin.com
Credit goes to github.com

Skip to content

Commit 904be6e

Browse files
ifoschcmaureir
andauthored
Apply suggestions from code review
Co-authored-by: Cristián Maureira-Fredes <[email protected]>
1 parent 6321030 commit 904be6e

File tree

1 file changed

+33
-33
lines changed

1 file changed

+33
-33
lines changed

library/tokenize.po

Lines changed: 33 additions & 33 deletions
Original file line numberDiff line numberDiff line change
@@ -25,7 +25,7 @@ msgstr ""
2525

2626
#: ../Doc/library/tokenize.rst:2
2727
msgid ":mod:`tokenize` --- Tokenizer for Python source"
28-
msgstr ":mod:`tokenize` --- Conversor a *tokens* para código Python"
28+
msgstr ":mod:`tokenize` --- Conversor a tokens para código Python"
2929

3030
#: ../Doc/library/tokenize.rst:10
3131
msgid "**Source code:** :source:`Lib/tokenize.py`"
@@ -39,8 +39,8 @@ msgid ""
3939
"including colorizers for on-screen displays."
4040
msgstr ""
4141
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42-
"Python, implementado en Python. Este analizador también devuelve comentarios "
43-
"como *tokens*, siendo útil para implementar *\"pretty-printers\"*, como "
42+
"Python, implementado en Python. Este analizador también retorna comentarios "
43+
"como tokens, siendo útil para implementar *\"pretty-printers\"*, como "
4444
"*colorizers* para impresiones en pantalla."
4545

4646
#: ../Doc/library/tokenize.rst:19
@@ -51,11 +51,11 @@ msgid ""
5151
"checking the ``exact_type`` property on the :term:`named tuple` returned "
5252
"from :func:`tokenize.tokenize`."
5353
msgstr ""
54-
"Para simplificar el manejo de flujos de *tokens*, todos los *tokens* :ref:"
54+
"Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
5555
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56-
"devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56+
"retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
5757
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58-
"devuelta por :func:`tokenize.tokenize`."
58+
"retornada por :func:`tokenize.tokenize`."
5959

6060
#: ../Doc/library/tokenize.rst:26
6161
msgid "Tokenizing Input"
@@ -74,8 +74,8 @@ msgid ""
7474
msgstr ""
7575
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
7676
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77-
"IOBase.readline` de los objetos *file*. Cada llamada a la función debe "
78-
"devolver una línea de entrada como bytes."
77+
"IOBase.readline` de los objetos archivos. Cada llamada a la función debe "
78+
"retornar una línea de entrada como bytes."
7979

8080
#: ../Doc/library/tokenize.rst:37
8181
msgid ""
@@ -88,12 +88,12 @@ msgid ""
8888
"with the field names: ``type string start end line``."
8989
msgstr ""
9090
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91-
"*token*, la cadena del *token*, una tupla ``(srow, scol)`` de enteros "
92-
"especificando la fila y columna donde el *token* empieza en el código, una "
93-
"``(erow, ecol)`` de enteros especificando la fila y columna donde el *token* "
94-
"acaba en el código, y la línea en la que se encontró el *token*. La línea "
91+
"token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
92+
"especificando la fila y columna donde el token empieza en el código, una "
93+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
94+
"acaba en el código, y la línea en la que se encontró el token. La línea "
9595
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96-
"devuelve como una :term:`named tuple` con los campos: ``type string start "
96+
"retorna como una :term:`named tuple` con los campos: ``type string start "
9797
"end line``."
9898

9999
#: ../Doc/library/tokenize.rst:46
@@ -103,9 +103,9 @@ msgid ""
103103
"tokens. For all other token types ``exact_type`` equals the named tuple "
104104
"``type`` field."
105105
msgstr ""
106-
"La :term:`named tuple` devuelta tiene una propiedad adicional llamada "
107-
"``exact_type`` que contiene el tipo de operador exacto para *tokens* :data:"
108-
"`~token.OP`. Para todos los otros tipos de *token*, ``exact_type`` es el "
106+
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
107+
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109109
"valor del campo ``type`` de la tupla con su respectivo nombre."
110110

111111
#: ../Doc/library/tokenize.rst:51
@@ -127,15 +127,15 @@ msgstr ""
127127
#: ../Doc/library/tokenize.rst:62
128128
msgid "Tokenize a source reading unicode strings instead of bytes."
129129
msgstr ""
130-
"Convertir a *tokens* una fuente leyendo cadenas unicode en lugar de bytes."
130+
"Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
131131

132132
#: ../Doc/library/tokenize.rst:64
133133
msgid ""
134134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
135135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
136136
"return a str object rather than bytes."
137137
msgstr ""
138-
"Como :func:`.tokenize`, el argumento *readline* es un invocable que devuelve "
138+
"Como :func:`.tokenize`, el argumento *readline* es un invocable que retorna "
139139
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140140
"*readline* devuelva un objeto *str* en lugar de *bytes*."
141141

@@ -145,7 +145,7 @@ msgid ""
145145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
146146
msgstr ""
147147
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148-
"func:`.tokenize`. No produce un *token* :data:`~token.ENCODING`."
148+
"func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
149149

150150
#: ../Doc/library/tokenize.rst:71
151151
msgid ""
@@ -172,7 +172,7 @@ msgid ""
172172
"Any additional sequence elements are ignored."
173173
msgstr ""
174174
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175-
"devolver secuencias con al menos dos elementos, el tipo de *token* y la "
175+
"retornar secuencias con al menos dos elementos, el tipo de *token* y la "
176176
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
177177

178178
#: ../Doc/library/tokenize.rst:85
@@ -183,7 +183,7 @@ msgid ""
183183
"token type and token string as the spacing between tokens (column positions) "
184184
"may change."
185185
msgstr ""
186-
"El *script* reconstruido se devuelve como una cadena simple. El resultado "
186+
"El *script* reconstruido se retorna como una cadena simple. El resultado "
187187
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
188188
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189189
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
@@ -206,7 +206,7 @@ msgid ""
206206
"The function it uses to do this is available:"
207207
msgstr ""
208208
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209-
"que convierte a *tokens*. La función que utiliza para hacer esto está "
209+
"que convierte a tokens. La función que utiliza para hacer esto está "
210210
"disponible como:"
211211

212212
#: ../Doc/library/tokenize.rst:101
@@ -224,7 +224,7 @@ msgid ""
224224
"It will call readline a maximum of twice, and return the encoding used (as a "
225225
"string) and a list of any lines (not decoded from bytes) it has read in."
226226
msgstr ""
227-
"Llamará a *readline* un máximo de dos veces, devolviendo la codificación "
227+
"Llamará a *readline* un máximo de dos veces, retornando la codificación "
228228
"usada, como cadena, y una lista del resto de líneas leídas, no "
229229
"descodificadas de *bytes*."
230230

@@ -238,15 +238,15 @@ msgstr ""
238238
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239239
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240240
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241-
"Resaltar que si se encuentra la marca BOM, se devolverá ``'utf-8-sig'`` como "
241+
"Resaltar que si se encuentra la marca BOM, se retornará ``'utf-8-sig'`` como "
242242
"codificación."
243243

244244
#: ../Doc/library/tokenize.rst:114
245245
msgid ""
246246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
247247
"returned."
248248
msgstr ""
249-
"Si no se especifica una codificación, por defecto se devolverá ``'utf-8'``."
249+
"Si no se especifica una codificación, por defecto se retornará ``'utf-8'``."
250250

251251
#: ../Doc/library/tokenize.rst:117
252252
msgid ""
@@ -269,7 +269,7 @@ msgid ""
269269
"Raised when either a docstring or expression that may be split over several "
270270
"lines is not completed anywhere in the file, for example::"
271271
msgstr ""
272-
"Lanzada cuando una expresión o *docstring* que puede separarse en más líneas "
272+
"Lanzada cuando una expresión o docstring que puede separarse en más líneas "
273273
"no está completa en el fichero, por ejemplo::"
274274

275275
#: ../Doc/library/tokenize.rst:136
@@ -283,7 +283,7 @@ msgid ""
283283
"tokenization of their contents."
284284
msgstr ""
285285
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286-
"Se convertirán en *tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
286+
"Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
287287
"conversión de su contenido."
288288

289289
#: ../Doc/library/tokenize.rst:150
@@ -295,7 +295,7 @@ msgid ""
295295
"The :mod:`tokenize` module can be executed as a script from the command "
296296
"line. It is as simple as:"
297297
msgstr ""
298-
"El módulo :mod:`tokenize` se puede ejecutar como *script* desde la línea de "
298+
"El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
299299
"comandos. Es tan simple como:"
300300

301301
#: ../Doc/library/tokenize.rst:161
@@ -315,7 +315,7 @@ msgid ""
315315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316316
"Otherwise, tokenization is performed on stdin."
317317
msgstr ""
318-
"Si se especifica :file:`filename.py`, se convierte su contenido a *tokens* "
318+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319319
"por la salida estándar. En otro caso, se convierte la entrada estándar."
320320

321321
#: ../Doc/library/tokenize.rst:177
@@ -341,15 +341,15 @@ msgid ""
341341
"token (if any)"
342342
msgstr ""
343343
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344-
"de coordenadas línea/columna donde se encuentra el *token*, la segunda "
345-
"columna es el nombre del *token*, y la última columna es el valor del "
346-
"*token*, si lo hay"
344+
"de coordenadas línea/columna donde se encuentra el token, la segunda "
345+
"columna es el nombre del token, y la última columna es el valor del "
346+
"token, si lo hay"
347347

348348
#: ../Doc/library/tokenize.rst:256
349349
msgid ""
350350
"The exact token type names can be displayed using the :option:`-e` option:"
351351
msgstr ""
352-
"Los nombres de tipos de *token* exactos se pueden mostrar con la opción :"
352+
"Los nombres de tipos de token exactos se pueden mostrar con la opción :"
353353
"option:`-e`:"
354354

355355
#: ../Doc/library/tokenize.rst:282

0 commit comments

Comments
 (0)